По мере затягивания войны с Россией ультрареалистичные видеоролики с использованием искусственного интеллекта пытаются изобразить украинских солдат в опасности.
В начале ноября в социальных сетях начали распространяться видеоролики, на которых украинские солдаты, казалось бы, плакали и сдавались на передовой. На первый взгляд они выглядят реальными, повторяя многие видеоролики, которые появлялись из этого региона в течение многих лет конфликта. Немногие из них имеют явные признаки манипуляции. Но Алексей Губанов, популярный российский стример, который сейчас живет в Нью-Йорке, сразу заметил нечто подозрительное: свое собственное лицо. «Сначала я не воспринял это всерьез, но вскоре заметил, как быстро растет количество просмотров и, что еще хуже, как много людей верят, что эти видеоролики настоящие», — сказал Губанов о видеороликах, которые он видел. «Десятки тысяч, если не сотни тысяч пользователей оставляли комментарии, выражая соболезнования якобы украинским солдатам в видеороликах и направляя свой гнев на украинское руководство». Губанов, который транслирует видеоигры и общается в чате на Twitch и бежал из России из-за своей критики президента Владимира Путина, никогда не служил в вооруженных силах, не говоря уже об украинской армии. То, что отметили его подписчики, было сгенерированным искусственным интеллектом видео, в котором использовалось его изображение для распространения ложной информации о моральном духе украинских войск. «Нас отвели в призывную комиссию и отправили сюда. Теперь нас везут в Покровск. Мы не хотим. Пожалуйста», — сказал сгенерированный ИИ Губанов на русском языке, будучи одетым в форму с украинским флагом. «Мама, мама, я не хочу!» Это видео — одно из 21 видео с украинскими солдатами, созданных с помощью искусственного интеллекта, которые NBC News проанализировала за последние недели. По всей видимости, эти видео были созданы или отредактированы с помощью передовых программ искусственного интеллекта, в результате чего некоторые из них получились настолько реалистичными, что практически не дают понять, как они были созданы. Но по крайней мере в половине этих видео небольшой логотип в углу выдаёт их происхождение: они были созданы с помощью Sora 2, последней версии генератора текста в видео от OpenAI. В некоторых видео, сгенерированных Sora, были использованы лица популярных российских стримеров, таких как Губанов, в драматических дипфейках, в то время как в других показаны группы украинских солдат, массово сдающихся российским войскам. Те, которые, по-видимому, были сгенерированы другими платформами искусственного интеллекта, также содержали очень тонкие ошибки, которые было бы сложно обнаружить большинству людей, такие как неверные или упрощенные версии униформы и шлемов, которые носят украинские солдаты. Для украинцев есть очевидная проблема: в большинстве видео солдаты говорят по-русски, а только в восьми из 21 видео военнослужащие говорят по-украински. Видео распространялись на YouTube, TikTok, Facebook и X. Все они стремились изобразить украинских солдат как не желающих сражаться и готовых сдаться. Похоже, что это последняя дезинформационная атака, направленная на искажение общественного мнения о войне России с Украиной. И хотя неясно, кто создал или опубликовал эти видео, они пополняют растущий объем ложной информации, которая становится все более изощренной и сложной для обнаружения. «Ложные утверждения, созданные с помощью Sora, гораздо сложнее обнаружить и опровергнуть. Даже лучшие детекторы ИИ иногда сталкиваются с трудностями», — сказала Элис Ли, российский аналитик по вопросам влияния в NewsGuard, беспартийной платформе по сбору данных, анализу и журналистике, которая выявляет достоверную и ложную информацию в Интернете. «Тот факт, что многие видео не имеют визуальных несоответствий, означает, что зрители могут просматривать и пролистывать такие видео на платформах, таких как TikTok, не подозревая, что только что увиденное видео является фальшивым». OpenAI не ответила на запрос о комментарии относительно роли Sora в создании вводящих в заблуждение видео, изображающих конкретно зоны конфликтов, но в электронном письме заявила: «Способность Sora 2 генерировать гиперреалистичные видео и аудио вызывает серьезные опасения по поводу сходства, злоупотребления и обмана». «Хотя кинематографические сцены разрешены, мы не допускаем графического насилия, экстремистских материалов или обмана», — заявила компания NBC News. «Наши системы обнаруживают и блокируют контент, нарушающий правила, до того, как он попадает в Sora Feed, а наша команда по расследованиям активно пресекает операции по оказанию влияния». В последние годы видео, сгенерированное искусственным интеллектом, быстро эволюционировало от простого и грубого до почти идеального, и многие эксперты все чаще предупреждают, что в скором времени может стать практически невозможно легко отличить реальное от поддельного. Выпущенный в октябре Sora 2 от OpenAI является одним из самых впечатляющих генераторов видео, а созданные с его помощью ролики теперь регулярно вводят зрителей в заблуждение. Между тем, продолжающееся вторжение России в Украину с самого начала было предметом манипуляций с использованием всего, от реалистичных кадров из видеоигр до поддельных прямых трансляций из зоны боевых действий. Многие из этих дезинформационных усилий были приписаны российским государственным структурам. Эти видео Sora появляются в то время, когда поддерживаемые США мирные переговоры остаются безрезультатными, а около 75% украинцев категорически отвергают российские предложения по прекращению войны, согласно исследованию, проведенному Киевским международным институтом социологии. То же исследование показало, что 62% украинцев готовы терпеть войну столько, сколько потребуется, даже несмотря на продолжающиеся смертоносные удары России по столице Украины. Центр по борьбе с дезинформацией, входящий в состав Совета национальной безопасности и обороны Украины, сообщил NBC News, что за последний год наблюдается «значительное увеличение объема контента, созданного или манипулируемого с помощью ИИ», предназначенного для подрыва доверия общественности и международной поддержки правительства Украины. «Сюда входят сфабрикованные заявления, якобы сделанные от имени украинских военнослужащих или командования, а также поддельные видеоролики с «признаниями», «скандалами» или вымышленными событиями», — сообщил центр в электронном письме, отметив, что эти видеоролики набирают сотни тысяч просмотров благодаря своему эмоциональному и сенсационному характеру. Хотя OpenAI установила некоторые ограничения на то, что можно создавать с помощью Sora, неясно, насколько они эффективны. Сама компания заявляет, что, несмотря на «наличие многоуровневых мер безопасности, некоторые вредные действия или нарушения политики все же могут обойти меры по их предотвращению». Исследование NewsGuard показало, что Sora 2 «в 80% случаев (16 из 20) создавала реалистичные видеоролики, содержащие заведомо ложные утверждения, когда ей давали соответствующую команду». Из 20 ложных утверждений, введенных в Sora 2, пять были популяризированы российскими дезинформационными операциями. Исследование NewsGuard показало, что даже когда Sora 2 изначально отвергала ложные утверждения, заявляя, что запрос «нарушает ее политику в отношении контента», исследователи все равно могли генерировать видео, используя различные формулировки этих запросов. NBC News удалось создать на Sora похожие видео, на которых украинские солдаты плакали, говорили, что их заставили пойти в армию, или сдавались с поднятыми руками и белыми флагами на заднем плане. Многие генераторы видео на базе ИИ пытаются маркировать или ставить водяные знаки на свои творения, чтобы показать, что они созданы компьютером. OpenAI заявила, что ее меры безопасности по защите от дезинформации для Sora включают метаданные с указанием происхождения видео и движущийся водяной знак, присутствующий на каждом загруженном видео. Но есть способы удалить или минимизировать эти меры. На некоторых видео Sora движущиеся водяные знаки были замазаны, что можно заметить при внимательном рассмотрении. Многие приложения и веб-сайты теперь предлагают пользователям способ замазать водяные знаки ИИ. Другие видео, просмотренные NBC News, содержали водяные знаки, которые были закрыты текстом, наложенным на видео. Несмотря на то, что политика компании гласит, что Sora AI не будет генерировать контент, показывающий «графическое насилие», NBC News обнаружила видео с водяным знаком Sora, на котором, по-видимому, был показан украинский солдат, получивший пулю в голову на передовой. Все видео, проанализированные NBC News, были опубликованы на TikTok или YouTube Shorts — двух платформах, запрещенных в России, но легко доступных для жителей Европы и США. Некоторые из них сопровождались эмоциональными субтитрами на разных языках, чтобы пользователи, не говорящие по-украински или по-русски, могли их понять. TikTok и YouTube запрещают публикацию на своих платформах вводящего в заблуждение контента, сгенерированного искусственным интеллектом, и дипфейков, и обе платформы предоставляют теги «Сгенерировано искусственным интеллектом» для информирования зрителей о реалистично выглядящих видеороликах. Представитель YouTube заявил, что компания удалила один из каналов, на котором были размещены видео, после того, как он был отмечен NBC News, но два других видео не нарушали ее политику и поэтому остались на платформе с меткой, описывающей их как сгенерированные ИИ. Все видео с ИИ, найденные NBC News с указанием имени пользователя TikTok, были удалены с платформы. Представитель TikTok заявил, что по состоянию на июнь 2025 года «более 99 % нарушающего правила контента было удалено до того, как кто-либо сообщил нам о нем, а более 90 % было удалено до того, как оно было просмотрено хотя бы один раз». Несмотря на то, что эти посты и аккаунты в TikTok были быстро удалены, видео продолжают жить в виде репостов на X и Facebook. Ни X, ни Facebook не ответили на запросы NBC News о комментарии. Эта последняя кампания по дезинформации проводится в то время, когда пользователи все больше полагаются на видео в социальных сетях, чтобы быть в курсе последних новостей со всего мира. «Любой, кто потребляет контент в Интернете, должен понимать, что многое из того, что мы сегодня видим в видео, фотографиях и текстах, на самом деле создано искусственным интеллектом», — сказала Нина Янкович, соучредитель и генеральный директор American Sunlight Project, организации, борющейся с дезинформацией в Интернете. «Даже если Sora введет меры безопасности, в этой сфере появятся другие компании, другие приложения и другие технологии, которые наши противники создадут, чтобы попытаться заразить наше информационное пространство».
