28.04.2024

Новости

27.04.2024 С Первомаем!

27.04.2024 Досрочные выборы

27.04.2024 «Своя игра»

26.04.2024 Прием отчетов партий

26.04.2024 Плюс одна кампания

26.04.2024 Итоги конкурса

22.04.2024 Финалисты клуба

19.04.2024 Семинар с партиями

19.04.2024 Переформирование двух комиссий

19.04.2024 Кандидаты в «молодежку»

Мировая угроза


Эксперты Восточного экономического форума (ВЭФ) подготовили доклад, в котором предупреждают общество: дипфейки будут главной угрозой для выборов во всем мире в 2024 году. В сочетании с фишинговыми атаками они могут помешать проведению кампаний. Примеры подобных манипуляций сознанием избирателей уже есть.

«Клонирование» людей

Дипфейк – это методика компьютерного синтеза изображения, основанная на искусственном интеллекте, которая используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики.

Искусственный интеллект использует синтез изображения человека – объединяет несколько картинок, на которых человек запечатлен с разных ракурсов и с разным выражением лица, и делает из них видео. Анализируя фотографии, специальный алгоритм «самообучается» тому, как выглядит и может двигаться человек.

Сам по себе синтез изображений, видео или аудио может не иметь очевидных социально опасных целей, однако манипулирование средствами массовой информации с использованием изображений, видео или голосов реальных людей создает целый комплекс моральных, юридических и управленческих проблем.

Дипфейк может достаточно достоверно изображать людей, совершающих действия, которых они в действительности никогда не делали, или говорящих такие вещи, которые они никогда не говорили. Формируя модели от сотен до тысяч целевых изображений, алгоритмы дипфейка «узнают», как выглядит чье-то лицо под разными углами и в различных выражениях.

С помощью самообучения алгоритм может предсказать, как будет выглядеть лицо целевого индивида (или жертвы информационной диверсии), имитирующее выражение лица другого человека. Аналогичный процесс используется для тренировки алгоритма дипфейков для имитации акцента, интонации и тона чьего-либо голоса.

Квалификационные и технические требования для создания качественных дипфейков невелики. Любой мотивированный человек с компьютером среднего уровня может создавать дипфейки. В свободном доступе находится ряд программ с открытым исходным кодом.

Манипуляция сознанием

Как следует из доклада ВЭФ, в 2024 году более 45 стран собираются провести выборы, в том числе Россия, США, Индия. Участие в этих выборах могут принять более половины жителей планеты, из-за чего СМИ уже назвали 2024 год «матерью всех избирательных годов» и «демократическим Супербоулом».

Созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением. Эксперты приводят в пример выборы в Словакии в сентябре 2023 года, когда был выпущен дипфейковый аудиоклип, из которого следовало, что один из кандидатов якобы обсуждал с представителем СМИ, как проводить манипуляции.

Помимо дипфейков ВЭФ в числе угроз упоминает автоматизированную дезинформацию, когда алгоритмы искусственного интеллекта воспроизводят большие объемы дезинформации, что затрудняет борьбу с ней, а также таргетированную рекламу, которая с помощью искусственного интеллекта может использоваться для манипулирования мнениями или подавления явки избирателей.

Кроме того, авторы доклада указывают на возможные проблемы с конфиденциальностью данных: информация для голосования может быть получена из удостоверяющих документов, записей о месте жительства, автоматическая обработка этих данных может привести к утечкам. Наконец, с помощью алгоритмов искусственного интеллекта злоумышленники могут манипулировать общественным мнением в соцсетях, усиливая эффект одних политических сообщений и подавляя другие.

В августе прошлого года газета «Гардиан» сообщила, что искусственный интеллект может повлиять на исход выборов президента США в 2024 году.

«Банальная антиутопия, в которой манипулятивный контент настолько дешев и настолько прост в массовом производстве, что становится повсеместным, – это политическое будущее, о котором беспокоятся цифровые эксперты в эпоху генеративного искусственного интеллекта», – написало издание.

Опрошенные газетой специалисты предупреждали, что благодаря этой стремительно развивающейся технологии можно будет взять на вооружение тактику дезинформации прошлого и «вдохнуть в нее новую жизнь».

О том, что ИИ-технологии могут повлиять на исход президентских выборов, еще в апреле объявил Илон Маск.

– Даже если вы говорите, что у искусственного интеллекта нет свободы действий, весьма вероятно, что люди будут использовать искусственный интеллект в качестве инструмента на выборах, – заявил бизнесмен.

По его мнению, без государственного регулирования искусственный интеллект может стать опасностью для общества.

Убегающий Трамп

Тем временем в США нейросети уже вошли в политическую схватку. Для продвижения своей предвыборной кампании современные технологии использовала республиканская партия. Она разместила на «Ютьюбе» видео, созданное искусственным интеллектом, изображающее антиутопическую версию будущего, если главой государства будет переизбран Джо Байден. На кадрах демократы празднуют победу на вечеринке, после чего следует серия воображаемых сюжетов о развитии международных и внутренних кризисов.

По словам представителя национального комитета республиканской партии, комитет впервые выпустил видео, на сто процентов созданное искусственным интеллектом. Сгенерированные нейросетями поддельные видеоролики, на которых люди говорят то, чего никогда не говорили, или делают то, чего никогда не делали, представляют собой угрозу демократии в США и за рубежом.

Только за последний год созданные нейросетями фейки уже спровоцировали несколько скандалов. Самым безобидным можно считать фейковое фото папы римского в солнцезащитных очках, стильном белом пуховике и с большим крестом поверх него. Позже стало известно, что фото сгенерировала нейросеть, но к моменту появления этой информации многие успели поверить в подлинность фото.

Были и более тревожные истории с фейками, в которые тоже многие поверили. В мае 2023 года в Сети распространилось фото высокого темно-серого столба дыма рядом со зданием Пентагона и сообщение о том, что там произошел взрыв. Причем изображение опубликовали несколько верифицированных учетных записей. В военном ведомстве сразу же опровергли информацию об инциденте. Тем не менее такая новость успела привести к кратковременному падению фондового рынка.

Молниеносно разлетелись по миру созданные нейросетью фото ареста экс-президента США Дональда Трампа. На них изображено, как полицейские ловят убегающего политика, а затем тащат его из здания, в то время как бывший глава государства, судя по виду, возмущается происходящим.

Буквально за пару дней изображения просмотрели более 4,8 миллиона раз, они получили тысячи ретвитов. Когда правда вскрылась, пользователи начали предлагать каким-либо образом ограничить распространение подобных фейков или как минимум ставить на них водяные знаки.

Поигрались и хватит?

Трамп не единственная жертва нейросетей. Подобная технология уже использовалась для создания дипфейков о знаменитостях и других публичных личностях. Такие инструменты для создания реалистичных изображений очень полезны для обмана публики, считает исследователь Гарвардского университета Джоан Донован.

– Мы свидетели новой формы упреждающей дезинформации, когда слухи превращаются в реальность посредством создания медиапродуктов, освещающих события, которых никогда не было, – отметил Донован.

Дипфейки, конечно, будут появляться в рамках президентской гонки, но до ситуации, когда невозможно отличить правду от вымысла, мир еще не дошел, считает политолог Малек Дудаков.

– Пока это влияет на умы людей, которые наивно всё воспринимают и зачастую не мыслят критически, могут поверить в тот или иной дипфейк с участием Трампа или Байдена, но, на мой взгляд, на этот раз ключевой роли они играть не будут, – сказал эксперт.

Разработчик сайтов kremlin.ru и «Госуслуги» Артем Геллер тоже придерживается такого мнения. По его словам, сегодня искусственный интеллект еще не сильно влияет на общественное мнение просто потому, что его пока не используют в достаточных масштабах для этого.

– Все поигрались, поиспользовали технологии, посмотрели, подумали, как и где ее можно применить, посмотрели на реакцию. Потенциально могут быть определенные моменты использования искусственного интеллекта на предстоящих выборах, но, честно говоря, пока для этого рановато. Об этом можно будет говорить, только если на это будет сделана какая-то большая ставка, как на выборах, на которых победил Трамп, была сделана ставка на технологии Big Data, – объяснил он.

По мнению эксперта, для определения дипфейка достаточно просто внимательно относиться к контенту, смотреть на реалистичность всего происходящего, отмечать какие-то элементы на видео.

– Но это работает только потому, что сейчас фейки делаются быстро: время быстрое, новости нужно генерировать быстро, соответственно, нужно быстро генерировать фейки. Если делать их в таких темпах, то какие-то детали из-за этого можно упускать. Но если к его созданию подходили с умом и без спешки, то определить, что это фейк, даже профессионалу без дополнительного инструментария, просто на взгляд и на слух, невозможно, – объяснил Артем Геллер.

Персональный подход

Использование информационных технологий для политического продвижения не впервые вызывает озабоченность в США. Победа Дональда Трампа на выборах президента США в 2016 году спровоцировала множество скандалов. После нее политика обвиняли в том, что лидерство досталось ему нечестным путем, в том числе благодаря использованию в своих политических целях технологий больших данных.

В ноябре 2016 года телекомпания CNN сообщила, что расположенная в Лондоне фирма «Кэмбридж Аналитика», получившая за свои услуги в сентябре более 5 миллионов долларов, с помощью различных методов анализа могла убеждать американских избирателей голосовать за Трампа. В СМИ обратили внимание, что специалисты фирмы создают психологический портрет человека на основе изучения порядка 5 тысяч различных параметров.

Они учитывают политические пристрастия человека, то, как он голосовал на предыдущих выборах, какие передачи смотрит по телевизору, где и какие товары покупает, и многое другое. Избирателям также было предложено пройти анонимный психологический тест для определения степени его откровенности, совестливости, законопослушности и склонности к нервным срывам.

Полученные данные предоставляли возможность найти оптимальный индивидуальный подход к потенциальному стороннику. Специалисты могут совмещать полученные данные с идентификационными файлами, чтобы направлять конкретным людям агитационные материалы по социальным сетям или на цифровые носители. Более того, люди могут получать послания во время просмотра определенных передач по телевизору.

– Если раньше кандидаты разъезжали по стране, собирали митинги, то сегодня технологии позволяют работать адресно, оперировать большими базами данных и просеивать практически весь корпус избирателей, выделять те группы, которые имеют преференцию. Благодаря этому начинается практически персональная работа с избирателями, информация доводится почти индивидуально, – отметил главный научный сотрудник Института США и Канады РАН Владимир Васильев.

Американский законопроект

Впрочем, считать, что наиболее активно современные технологии в своих целях используют республиканцы, не стоит. Исторически именно демократическая партия была силой, наиболее восприимчивой к новым технологиям, и всегда делала на них ставку.

Связанные с большими данными технологии успешно применялись уже во время предвыборных кампаний Барака Обамы в 2008-м и 2012 годах для повышения эффективности рекламы и предвыборных мероприятий на местах с учетом настроений конкретных групп избирателей.

– Именно демократы традиционно считаются проводниками новых технологий, в отличие от республиканцев. Со времен экс-президента США Билла Клинтона информационно-коммуникационные технологии, Билл Гейтс, Марк Цукерберг всё в большей степени ориентировались на демократов. Искусственный интеллект – это как раз та составляющая, где они, возможно, чувствуют себя более уверенно, – отметил Владимир Васильев.

В то же время в США начали чаще говорить о третьей партии, известной как No Labels, то есть без идентификации, без ярлыков. Она позиционирует себя как двухпартийное движение для американцев, которые чувствуют себя усталыми от крайностей слева и справа. В ней рассматривают возможность выставления своего представителя на предстоящих выборах в качестве третьего кандидата.

– Искусственный интеллект может помочь этой партии вычленить людей, наиболее склонных к тому, чтобы поддержать ее. Трамп и Байден – это отрицательные кандидаты, которые избирателей, скорее, не мобилизуют, а отталкивают. Если обе партии выдвинут их, то No Labels сможет воспользоваться протестным электоратом, который не захочет поддержать ни того ни другого, – добавил Владимир Васильев.

Тем временем в США подготовлен законопроект для защиты от дипфейков. Он направлен на защиту граждан от мошенничества и предполагает наказание за применение искусственного интеллекта для генерации фото- и видеоизображений, а также имитации голосов людей.

В соответствии с проектом закона физические лица наделяются правами на свой голос и внешность и передача прав может осуществляться исключительно самим человеком, при этом право продолжает действовать даже после смерти физического лица. Несанкционированное копирование, тиражирование или подделка чьего-либо изображения может обойтись мошенникам штрафом до 50 тысяч долларов США.

По словам представителей правозащитной компании Human Artistry Campaign, поддержавших закон, созданные искусственным интеллектом фальсификации не просто наносят вред авторам контента, но и подрывают доверие в обществе. Поэтому важно использовать технологии ответственно и этично, чтобы они работали на людей, а не против них.

Дипфейк во благо

Скандальный инцидент, связанный с дипфейками, произошел и в Индии. За день до парламентских выборов в одном мессенджере набрали популярность два ролика, в которых глава Индийской народной партии Маной Тивари агитировал голосовать за себя. В одном из видеороликов политик говорил на наиболее распространенном языке хинди, в другом – на диалекте хариани. Однако в действительности существовал единственный исходник видео, на основе которого и были сделаны дипфейки выступлений политика на других языках.

Для создания ролика руководство партии привлекло специализирующуюся на политических коммуникациях компанию, которая и подготовила дипфейк для позитивной избирательной кампании, чтобы привлечь избирателей, говорящих на разных языках.

– Успех данного видео оказался очень значительным: его распространили по 5800 чатам, а видео посмотрело 15 миллионов человек. После того, как ролик на хариани набрал популярность, компания создала еще одно видео на английском языке, чтобы привлечь городских жителей, – говорится в исследовании Владимира Иванова и Ярослава Игнатовского.

Дипфейки индийского политика получили мировой резонанс не только из-за их реальной политической эффективности, но также из-за ряда других факторов: их правдоподобности (так как лицо политика было заменено не полностью, а были сфабрикованы только движения губ, очень немногие пользователи заметили неестественные движения губ кандидата), а также заявления создателей о том, что они впервые использовали технологию дипфейка на благо, а не для дискредитации оппонентов. Действительно, на первый взгляд в данной ситуации нет пострадавших, технология использовалась для продвижения позитивного имиджа кандидата.

Границы правды и лжи

К сожалению, пока проблема остается вне политической повестки большинства государств, считает эксперт по информационным технологиям Максим Алексеев. Такое положение дел создает значительные риски, главный из которых – то, что государственные органы могут оказаться банально не готовы к моменту, когда дипфейки начнут представлять реальную общественную угрозу.

Превентивные меры пора вырабатывать уже сейчас, и они должны включать в себя развитие технологической экспертизы, законодательные инициативы, работу с социальными сетями, а также информирование общественности о потенциальной угрозе.

Дипфейки несут в себе ряд значимых угроз для политических систем. Они могут быть активно использованы для вбросов в период выборов с целью дискредитации кандидатов. С помощью фейковых видео можно будет сеять панику среди населения, особенно если их запускать во время чрезвычайных происшествий.

Наконец, дипфейки могут использоваться для провокации межэтнических, межконфессиональных или межгосударственных конфликтов, особенно если их направлять в точки застарелых и хронических разногласий. И конечно, не стоит забывать, что существование дипфейков в целом размывает границы правды и лжи.

Если раньше видеозаписи практически всегда выступали стальным доказательством, то теперь каждый недобросовестный политик сможет объявить обличающую его видеозапись фейковой. Такой метод будет особенно удобен для авторитарных политиков, которые обожают уличать оппозиционно настроенные СМИ в распространении фейков.

Дешево и эффективно

– Как может ответить государственный аппарат? Прежде всего, стоит подтолкнуть цифровые платформы к более активной борьбе с фейковыми видео. Средства распознавания дипфейков должны развиваться параллельно с технологиями для их создания. Несмотря на появление стартапов, которые призваны определять модифицированные видео, на данный момент это неравная борьба. Цифровые платформы должны активнее инвестировать в инструменты выявления фейковых видео, а в силах государственного аппарата их к этому подтолкнуть, законодательно обязуя платформы бороться с дипфейками, – обращает внимание Максим Алексеев.

По словам Генри Фарида, эксперта по цифровой криминалистике из Калифорнийского университета в Беркли, на каждого специалиста по распознаванию дипфейков приходится примерно 100 экспертов по их созданию.

Параллельно с юридическим регулированием цифровых платформ, призванным заставить социальные сети активнее бороться с фейками и инвестировать в релевантный инструментарий, государство должно самостоятельно повышать свои цифровые компетенции.

Необходимо стимулировать развитие технологий, призванных бороться с фейками. Этого можно достигнуть с помощью грантов и налоговых льгот для стартапов, которые специализируются на мониторинге СМИ и социальных сетей и выявлении вредоносных фейков.

Власти должны активно работать с населением, информировать граждан о развитии потенциально опасных технологий, оперативно давать опровержение для распространяющихся зловредных дипфейков, представляющих социальную угрозу. В интересах государства обучать граждан критическому мышлению при работе с сетевыми источниками – одному из ключевых навыков цифровой эпохи.

– На данный момент стороннему наблюдателю может казаться, что дипфейки не представляют реальной угрозы, а алармизм американских законодателей не обоснован. Технологический тренд говорит об обратном. Дипфейки становятся дешевле, качественнее и эффективнее, и самое время работать над инструментами, которые позволят с ними эффективно бороться, – резюмировал эксперт.

По материалам centerforpoliticsanalysis.ru, tass.ru, cyberleninka.ru, rbc.ru

Фото с сайта ru.freepik.com

Голосование

Откуда Вы узнаёте о проводимых выборах?

Всего голосов: 20






Видеоновости