Южная Америка

Исследователи утверждают, что крупные онлайн-пропагандистские кампании наводняют интернет «искусственным интеллектом».

Исследователи утверждают, что крупные онлайн-пропагандистские кампании наводняют интернет «искусственным интеллектом».
Согласно новому отчету, многие из крупнейших и наиболее широко распространенных государственных пропагандистских кампаний в Интернете используют искусственный интеллект, но зачастую делают это неэффективно. В отчете, подготовленном компанией Graphika, занимающейся аналитикой социальных сетей, проанализированы девять текущих операций по оказанию влияния в Интернете, в том числе те, которые, по ее данным, связаны с правительствами Китая и России, и обнаружено, что каждая из них, как и большинство социальных сетей, все чаще использует генеративный ИИ для создания изображений, видео, текстов и переводов. Исследователи обнаружили, что спонсоры пропагандистских кампаний стали полагаться на ИИ в таких основных функциях, как создание контента и персонажей-инфлюенсеров в социальных сетях, что позволило оптимизировать некоторые кампании. Однако исследователи отмечают, что контент низкого качества и вызывает мало интереса. Эти выводы противоречат тому, что многие исследователи ожидали с ростом совершенства генеративного ИИ — искусственного интеллекта, который имитирует человеческую речь, письмо и изображения в картинках и видео. В последние годы эта технология быстро продвинулась вперед, и некоторые эксперты предупреждали, что пропагандисты, работающие от имени авторитарных стран, будут использовать высококачественный, убедительный синтетический контент, предназначенный для обмана даже самых взыскательных людей в демократических обществах. Однако исследователи Graphika пришли к однозначному выводу, что контент, созданный с помощью искусственного интеллекта в рамках этих кампаний, является низкокачественным «мусором», от неубедительных синтетических репортеров в видеороликах YouTube до неуклюжих переводов или фальшивых новостных сайтов, которые случайно включают подсказки искусственного интеллекта в заголовки. «В операциях по оказанию влияния систематически используются инструменты искусственного интеллекта, и большая их часть представляет собой низкокачественный, дешевый мусор», — сказала Дина Садек, старший аналитик Graphika и соавтор отчета. Как и до того, как такие кампании начали регулярно использовать искусственный интеллект, подавляющее большинство их постов в западных социальных сетях не привлекают практически никакого внимания, сказала она. Онлайн-кампании по влиянию, направленные на изменение американской политики и продвижение вызывающих разногласия сообщений, начались как минимум десять лет назад, когда российское агентство «Агентство интернет-исследований» создало множество учетных записей в Facebook и Twitter и попыталось повлиять на президентские выборы 2016 года. Как и в некоторых других областях, таких как кибербезопасность и программирование, развитие ИИ не произвело революцию в сфере онлайн-пропаганды, но упростило автоматизацию некоторых задач, сказала Садек. «Это может быть контент низкого качества, но он очень масштабируем в массовом масштабе. Они могут просто сидеть там, возможно, один человек нажимает кнопки, чтобы создать весь этот контент», — сказала она. В отчете приводятся такие примеры, как «Doppelganger» — операция, которую Министерство юстиции связывает с Кремлем и которая, по словам исследователей, использовала ИИ для создания неубедительных сайтов с фальшивыми новостями, и «Spamoflauge», которую Министерство юстиции связывает с Китаем и которая создает фальшивых влиятельных лиц в сфере новостей с помощью ИИ для распространения вызывающих разногласия, но неубедительных видеороликов на таких социальных сетях, как X и YouTube. В отчете приводится несколько операций, в которых использовался низкокачественный аудио-дипфейк. В одном из примеров были опубликованы дипфейки знаменитостей, таких как Опра Уинфри и бывший президент Барак Обама, которые, казалось, комментировали рост влияния Индии в мировой политике. Однако в отчете говорится, что видеоролики выглядели неубедительно и не получили большого распространения. Другое пророссийское видео под названием «Olympics Has Fallen» (Олимпиада пала) было, по-видимому, создано с целью очернить летние Олимпийские игры 2024 года в Париже. В этом видео, отсылающем к голливудскому фильму 2013 года «Olympus Has Fallen» (Олимп пал), снялся искусственный интеллект, создавший образ Тома Круза, который не участвовал ни в одном из этих фильмов. Согласно отчету, видео не привлекло особого внимания за пределами небольшой группы аккаунтов, которые обычно делятся фильмами этой кампании. Представители посольства Китая в Вашингтоне, Министерства иностранных дел России, X и YouTube не ответили на запросы о комментариях. Даже если их усилия не достигают многих реальных людей, пропагандистам выгодно наводнять интернет в эпоху чат-ботов с искусственным интеллектом, сказал Садек. Компании, разрабатывающие эти чат-боты, постоянно обучают свои продукты, собирая в интернете тексты, которые они могут перегруппировать и повторить. Недавнее исследование Института стратегического диалога, некоммерческой продемократической организации, показало, что большинство крупных чат-ботов с искусственным интеллектом, или больших языковых моделей, в своих ответах ссылаются на государственные российские новостные агентства, в том числе на некоторые агентства, которые были подвергнуты санкциям со стороны Европейского союза.