Фотографии и видеозаписи стрельбы в Миннеаполисе, измененные с помощью искусственного интеллекта, искажают реальность
От Facebook и TikTok до Instagram и X — с момента гибели Алекса Претти от рук федеральных агентов в Миннеаполисе в минувшие выходные в интернете распространились манипулированные с помощью ИИ изображения и видео, запечатлевшие последние мгновения его жизни. Быстрое распространение медиафайлов, измененных с помощью искусственного интеллекта, на которых в большинстве случаев показано, как Претти падает через несколько секунд после выстрела, затуманило ключевые детали стрельбы в социальных сетях. В отличие от других дипфейков, созданных с помощью ИИ, которые изображают совершенно нереалистичные сцены и легко идентифицируются как подделка, многие измененные с помощью ИИ изображения стрельбы в Претти, по-видимому, были основаны на проверенных изображениях, достаточно точно отражающих реальность, чтобы сбить с толку и ввести в заблуждение многих пользователей Интернета. И даже несмотря на то, что осведомленность о возможностях передового искусственного интеллекта распространяется, некоторые пользователи Интернета распространяют свой скептицизм на подлинные СМИ, ложно утверждая, что законные фотографии и видео Претти были изменены с помощью ИИ. Одно изображение, которое, по-видимому, было подделано с помощью ИИ, на котором медбрат отделения интенсивной терапии падает вперед, когда федеральный агент направляет пистолет ему в спину, было просмотрено более 9 миллионов раз на X (даже несмотря на то, что сообщество отметило, что изображение было улучшено с помощью ИИ). Среди других деталей, сфабрикованных с помощью ИИ, на фотографии изображен сотрудник ICE без головы. Сенатор Дик Дурбин, демократ от штата Иллинойс, показал это изображение во время выступления в Сенате в среду, по-видимому, не осознавая, что оно не является подлинным. В заявлении для NBC News пресс-секретарь сенатора Дурбин написал: «Наш офис использовал фотографию, сделанную в сенате, которая широко распространилась в Интернете. Сотрудники только после этого поняли, что изображение было слегка отредактировано, и сожалеют о допущенной ошибке». В других постах были представлены реалистичные видео, в том числе сгенерированное искусственным интеллектом видео в TikTok, на котором Претти разговаривает с сотрудником ICE, и видео в Facebook, на котором полицейский случайно выстрелил из пистолета Претти. Пост в Facebook, который был помечен сообществом как «улучшенный с помощью ИИ», набрал более 44 миллионов просмотров. Не установлено, действительно ли этот офицер выстрелил из пистолета Претти. Бен Колман, соучредитель и генеральный директор компании Reality Defender, занимающейся обнаружением дипфейков, сказал, что массовое насыщение постов медиа-материалами о стрельбе, созданными с помощью ИИ, вызывает беспокойство, но не является неожиданным. В начале этого месяца в интернете начали циркулировать изображения, модифицированные с помощью искусственного интеллекта, с целью раскрыть личность сотрудника ICE, застрелившего Рене Николь Гуд, еще одну гражданку США, убитую в Миннеаполисе в последние недели, что привело к тому, что многие пользователи интернета ошибочно идентифицировали других людей как этого агента. «За последние пару месяцев мы наблюдали в социальных сетях значительный рост количества фотографий, содержащих «улучшения», созданные с помощью искусственного интеллекта, на зернистых, размытых фотографиях», — сказал Колман NBC News. «Проблема с этими дипфейками — а в конце концов они все равно остаются дипфейками — заключается в том, что в лучшем случае они являются грубыми приближениями, а в худшем — полной выдумкой, и в конечном итоге не позволяют точно улучшить или разоблачить личности». «Такие детали, как отсутствующая голова человека на фотографии, показывают, насколько вредно, когда эти поддельные фотографии становятся вирусными», — сказал Колман, имея в виду фотографию, которую Дурбин показал в Сенате. «Если мы принимаем поддельные фотографии за настоящие, независимо от контекста, это отвлекает внимание и может умалять значение правды и фактов». Распространение медиа-контента, созданного с помощью ИИ, также привело к тому, что многие пользователи Интернета ошибочно утверждают, что подлинные видео с Претти являются поддельными. Эксперты опасаются, что такая динамика может привести к явлению, известному как «дивиденды лжеца», когда злоумышленники используют утверждение о том, что подлинные медиа-материалы созданы с помощью ИИ, чтобы вызвать недоверие и избежать ответственности. Три видео, независимо проверенные NBC News, показывают, как Претти вступает в перепалку с федеральными иммиграционными агентами в Миннеаполисе чуть более чем за неделю до своей смерти. Но одно из видео, снятое репортерами The News Movement, некоторые пользователи социальных сетей называют сгенерированным искусственным интеллектом. Видео, на котором Претти пинает заднюю часть автомобиля, используемого агентами, прежде чем его повалили на землю, было проверено его семьей через представителя. Свидетель, который записал второе проверенное видео, показывающее тот же инцидент, рассказал NBC News, что он обнял Претти после ссоры с федеральными агентами и спросил, в порядке ли он. Существует лишь несколько инструментов, если таковые вообще имеются, которые позволяют потребителям новостей точно определить, был ли тот или иной контент создан или обработан с помощью ИИ. На платформе X ИИ-помощник Grok отвечал на запросы о подлинности видеозаписи, и в нескольких своих ответах утверждал, что подлинное видео «похоже на созданное или измененное с помощью ИИ». Всплеск фейковых видео, созданных с помощью ИИ, усугубил дезинформацию вокруг убийства Претти, поскольку несколько влиятельных правых деятелей ошибочно идентифицировали Претти как другого жителя Миннеаполиса. Всплески дезинформации и ложной информации, связанной с последними новостями и созданной с помощью ИИ, стали более частыми в течение последнего года, поскольку развивающиеся системы ИИ все чаще способны создавать высококачественные изображения и видео, которые стирают грань между реальностью и вымыслом.
