Эксперты считают, что искусственный интеллект усиливает «коллапс» доверия в Интернете
В течение многих лет люди в основном могли доверять, по крайней мере инстинктивно, тому, что видели своими глазами. Теперь же подделка часто выглядит как подлинник, а подлинник — как подделка. В течение первой недели 2026 года это уже стало головоломкой, которую, по мнению многих экспертов в области СМИ, будет трудно преодолеть благодаря достижениям в области искусственного интеллекта. Операция президента Дональда Трампа в Венесуэле почти сразу же вызвала распространение в социальных сетях изображений, созданных с помощью искусственного интеллекта, старых видеороликов и отретушированных фотографий. В среду, после того как сотрудник иммиграционной и таможенной службы застрелил женщину в ее автомобиле, многие пользователи сети распространили поддельное, скорее всего отредактированное с помощью ИИ изображение с места происшествия, которое, по-видимому, было основано на реальном видео. Другие использовали ИИ в попытках цифровым способом удалить маску сотрудника ICE, застрелившего женщину. Путаница вокруг контента, созданного с помощью ИИ, возникает из-за того, что многие социальные сети, которые платят создателям контента за вовлеченность, стимулируют пользователей перерабатывать старые фотографии и видео, чтобы усилить эмоции вокруг вирусных новостей. По мнению экспертов, смесь дезинформации и достоверных фактов приводит к усилению эрозии доверия в Интернете. «По мере того как мы начинаем беспокоиться об ИИ, он, по крайней мере в краткосрочной перспективе, будет подрывать наше доверие по умолчанию, то есть нашу веру в коммуникацию, пока у нас не появится причина не верить», — сказал Джефф Хэнкок, директор-основатель Stanford Social Media Lab. «Это будет большой проблемой, потому что в течение некоторого времени люди действительно не будут доверять тому, что они видят в цифровом пространстве». Хотя ИИ является новейшей технологией, вызывающей обеспокоенность в связи с ростом дезинформации, подобные случаи утраты доверия повторялись на протяжении всей истории, от дезинформации во время выборов 2016 года до массового производства пропаганды после изобретения печатного станка в 1400-х годах. До ИИ был Photoshop, а до Photoshop — аналоговые методы обработки изображений. По словам Хэнкока, манипулируемые СМИ оказывают наибольшее влияние на быстро меняющиеся новостные события, поскольку восполняют общий дефицит информации. В субботу Трамп поделился в своем подтвержденном аккаунте Truth Social фотографией свергнутого венесуэльского лидера Николаса Мадуро с завязанными глазами и в наручниках на борту десантного корабля ВМС. Вскоре после этого неподтвержденные изображения, связанные с захватом, некоторые из которых затем были превращены в видео, сгенерированные ИИ, начали наводнять другие социальные сети. В то время как разворачивались настоящие празднования, владелец X Илон Маск был одним из тех, кто поделился видео, сгенерированным искусственным интеллектом, на котором венесуэльцы благодарили США за захват Мадуро. Сгенерированные искусственным интеллектом доказательства уже попали в суды. Дипфейки, созданные искусственным интеллектом, также обманули официальных лиц — в конце прошлого года в Интернете появилось множество сгенерированных искусственным интеллектом видео, на которых украинские солдаты извинялись перед российским народом и массово сдавались российским войскам. Хэнкок сказал, что даже несмотря на то, что большая часть дезинформации в Интернете по-прежнему поступает через более традиционные каналы, например, когда люди незаконно используют реальные СМИ для создания ложных нарративов, ИИ быстро подливает масла в огонь. «Если просто смотреть на изображение или видео, то по сути станет невозможно определить, является ли оно поддельным. Я думаю, что мы приближаемся к этому моменту, если уже не достигли его», — сказал он. «Старые представления о грамотности в области ИИ, такие как «давайте просто посмотрим на количество пальцев» и тому подобное, скорее всего, исчезнут». Рене Хоббс, профессор коммуникационных исследований в Университете Род-Айленда, сказала, что основная проблема для исследователей, изучающих ИИ, заключается в том, что люди сталкиваются с когнитивным истощением, пытаясь ориентироваться в огромном объеме реального и синтетического контента в Интернете. Это затрудняет им отбор реального от нереального. «Если постоянные сомнения и беспокойство по поводу того, чему доверять, являются нормой, то на самом деле отказ от участия — это логичная реакция. Это механизм защиты», — сказала Хоббс. «А когда люди перестают заботиться о том, правда ли что-то или нет, то опасность заключается не только в обмане, но и в чем-то гораздо худшем. Это полный крах даже мотивации к поиску правды». Она и другие эксперты работают над тем, чтобы выяснить, как включить генеративный ИИ в образование в области медиаграмотности. Организация экономического сотрудничества и развития, межправительственный орган демократических стран, которые сотрудничают в разработке политических стандартов, планирует в 2029 году выпустить глобальную оценку медийной и искусственной интеллектуальной грамотности 15-летних подростков. Даже некоторые гиганты социальных сетей, которые приняли генеративный ИИ, с осторожностью относятся к его проникновению в алгоритмы людей. В недавнем посте в Threads глава Instagram Адам Моссери коснулся своих опасений по поводу того, что дезинформация, созданная с помощью ИИ, становится все более распространенной на различных платформах. «Большую часть своей жизни я мог с уверенностью предполагать, что подавляющее большинство фотографий или видео, которые я вижу, в основном точно отражают моменты, которые произошли в реальной жизни», — написал он. «Очевидно, что теперь это уже не так, и нам, людям, понадобятся годы, чтобы адаптироваться». Моссери предсказал, что интернет-пользователи «перейдут от предположения, что то, что мы видим, по умолчанию является реальным, к скептицизму при просмотре медиа и будут уделять гораздо больше внимания тому, кто делится чем-то и почему он это делает. Это будет невероятно неудобно для всех нас, потому что мы генетически предрасположены верить своим глазам». Хани Фарид, профессор информатики в Школе информации Калифорнийского университета в Беркли, сказал, что его недавнее исследование по обнаружению дипфейков показало, что люди с одинаковой вероятностью могут сказать, что что-то реальное является фальшивкой, как и что-то фальшивое является реальным. Точность значительно ухудшается, когда людям показывают контент с политическим подтекстом, потому что тогда вступает в силу эффект подтверждения. «Когда я отправляю вам что-то, что соответствует вашему мировоззрению, вы хотите в это верить. У вас появляется мотивация в это верить», — сказал Фарид. «А если это что-то, что противоречит вашему мировоззрению, у вас появляется сильная мотивация сказать: «О, это фейк». И когда вы добавляете к этому партийную пристрастность, все летит к черту». Люди также более склонны сразу доверять тем, кого они знают — например, знаменитостям, политикам, членам семьи и друзьям, — поэтому искусственный интеллект, имитирующий таких личностей, будет еще более склонен обманывать людей, поскольку он становится все более реалистичным, сказал Сивей Лю, профессор информатики в Университете Буффало. Лю, который помогает поддерживать открытую платформу для обнаружения ИИ под названием DeepFake-o-meter, сказал, что обычные пользователи Интернета могут улучшить свои навыки обнаружения ИИ, просто обращая внимание. Даже если у них нет возможности анализировать каждый фрагмент медиа, с которым они сталкиваются, по его словам, люди должны хотя бы задаться вопросом, почему они доверяют или не доверяют тому, что видят. «Во многих случаях проблема может заключаться не в самих медиа, а в том, что они представлены в неправильном контексте или размещены кем-то, кому мы не можем полностью доверять», — сказал Лю. «Поэтому я считаю, что в целом общее осознание и здравый смысл являются наиболее важными мерами защиты, которые у нас есть, и они не требуют специальной подготовки».
