Советы экспертов о том, как распознать контент, созданный искусственным интеллектом, и не попасться на удочку мошенников
Обман с помощью искусственного интеллекта (ИИ) стал реальностью. Эта новая технология способна учиться и подражать, поэтому она уже используется для создания цифрового контента и заставляет людей поверить в то, что человек сказал или сделал что-то, чего никогда не было. Примером тому может служить предупреждение Центрального банка Уругвая, поступившее несколько дней назад после распространения фальшивого видео, в котором использовались изображение и голос президента Совета директоров Вашингтона Рибейро, «чтобы дать рекомендации по якобы существующей инвестиционной платформе». Или как случилось с Сандрой Коста, женщиной, которой позвонил ее предполагаемый брат и сообщил, что она в опасности, что ее дом захвачен и что ее жизни угрожает опасность. Сандра не дала своему предполагаемому брату времени попросить у нее денег, потому что побежала домой и подтвердила, что это был обман. Позже, когда она сообщила о случившемся, в полиции ей сказали, что да, такое случается. «Этот тип атак, когда люди манипулируют людьми, чтобы те предоставили какую-то информацию или получили доступ к определенным сайтам, не нов, они происходят в социальных сетях или, возможно, другими способами, но с появлением искусственного интеллекта этот сценарий усложняется», - сказал в интервью El País Виталио Альфонсо, координатор степени по инженерии данных и искусственному интеллекту в Технологическом университете Уругвая (UTEC), который готовит специалистов, занимающихся разработкой такого рода технологий, а также инструментов для их обнаружения. С помощью искусственного интеллекта можно «воссоздавать изображения, которые кажутся взятыми из реальности, и даже имитировать голос и черты лица» людей, что делает обнаружение таких обманов все более сложным. По этой причине эксперт рекомендует «обращать внимание» на некоторые признаки, свидетельствующие о том, что кадры не настоящие, а именно: ненормальное или чрезмерное моргание, нескоординированные движения лица и отсутствие синхронности между видео и аудио. Однако эксперт заверил, что это будет зависеть от того, насколько проработан контент, поэтому он рекомендует пользователям взять за привычку «проверять информацию в официальных СМИ, в прессе, чтобы узнать, есть ли публикации подобного характера». Альфонсо отметил, что, хотя существуют онлайн-инструменты для проверки достоверности контента, созданного с помощью искусственного интеллекта, технология продвинулась настолько далеко, что знает, как перехитрить саму себя. «Это гонка, и по мере ее развития она становится все сложнее, и разрабатываются более изощренные атаки», - сказал он, заявив, что „один из способов - следить за развитием профессионалов“ в этой области, но в их подготовке есть этическая ветвь, чтобы избежать такого рода практики. Альфонсо подтвердил, что для создания такого видео, как у Вашингтона Рибейро, необходимо большое количество информации. «Если речь идет о публичной фигуре, то, скорее всего, получить доступ к этой информации будет проще», поскольку в сети можно найти интервью, изображения и записи этого человека, но для получения доступа к подобным данным людей с „более скромными профилями“ основным источником, которым может располагать киберпреступник, являются социальные сети. Хотя эксперт не исключает возможности несанкционированного доступа к этой информации через использование персональных электронных устройств. «В случае с аудиозаписями появилась возможность из небольших фрагментов аудиозаписей генерировать большие сегменты с очень похожими на оригинал характеристиками», - сказал Альфонсо, отвечая на вопрос о том, какой маневр может стоять за фальшивыми звонками от членов семьи с голосами, созданными с помощью искусственного интеллекта. Их также можно создать с помощью инструментов «с относительно скромной вычислительной мощностью», а для организации мистификации достаточно «вложить несколько тысяч долларов». Несмотря на эти риски, Альфонсо был настроен оптимистично и заверил, что эти техники разрабатываются не только для «осуществления атак» и что примером тому может служить их использование в индустрии развлечений. Эксперт, получивший докторскую степень по техническим наукам с акцентом на телекоммуникации в Центральном университете Лас-Вильяс на Кубе, подчеркнул, что университеты играют «фундаментальную роль» в борьбе с этими рисками, поскольку «они не только готовят специалистов с глубокими знаниями о функционировании этих передовых технологий, но и обучают их разработке инновационных инструментов для борьбы с рисками, связанными с глубокими подделками», что он перевел как „цифровые манипуляции“, но утверждает, что „эта область обучения должна сопровождаться сильным акцентом на этические ценности, гарантируя, что полученные знания будут применяться ответственно и на благо общества“. В марте этого года в кампусе Ривера началось обучение по программе бакалавриата UTEC «Инженерия данных и искусственный интеллект», и сейчас открыт набор на новое поколение 2025 года. Курс проводится очно и рассчитан на 80 студентов. «Это единственная в своем роде программа с такими характеристиками в государственном высшем образовании Уругвая», - сказал ее координатор. Он пояснил, что поступить могут выпускники любого бакалавриата, но сам он рекомендует, чтобы у студентов было «призвание к ключевым областям», таким как математика и программирование.