Deepfake alert: как фальшивый контент (и искусственный интеллект) угрожает миру бизнеса
Новости Аргентины
Менее месяца назад стало известно, что финансовый сотрудник гонконгской транснациональной корпорации заплатил 25 миллионов долларов США мошенникам, которые использовали технологию deepfake - контент, использующий искусственный интеллект для манипулирования текстом, изображениями, видео и аудио до такой степени, что невозможно отличить настоящее от подделки. В тщательно продуманной афере работника обманом заставили принять участие в видеозвонке с другими членами его команды, но все они на самом деле были ультраподдельными воссозданиями. В результате он согласился перевести требуемую сумму по объясненным ему причинам. "Deepfakes" (deep learning и "fake") в наши дни находятся в центре внимания искусственного интеллекта. Среди прочего, они стали известны благодаря видеороликам, в которых звезды и политики говорят, показывают или действуют в поддельных ситуациях, наносящих ущерб их репутации. "В январе 2024 года образ Тейлор Свифт был использован для создания поддельных видеороликов, рекламирующих тотализатор посуды Le Creuset. В том же месяце в социальных сетях распространились порнографические фейки певицы. Жертвами фальшивок становились и другие знаменитости: Элон Маск, Уоррен Баффет, Барак Обама и Дональд Трамп. В конце 2023 года Том Хэнкс сообщил на своем аккаунте в Instagram о распространении фальшивого видео, в котором актер "рекламирует" стоматологический план. MrBeast, один из самых известных ютуберов в мире, предупредил, что на TikTok можно увидеть рекламу, в которой его поддельная версия говорит, что отдаст 15 айфонов в обмен на два доллара: "Влияние глубоких подделок настолько реально и незаметно, что это бьет тревогу для бизнеса. С недавним запуском Sora - искусственного интеллекта, который может генерировать видео из текста, созданного OpenAI, той же компанией, которая разработала ChatGPT, - вам даже не нужно быть экспертом в области технологий или киберпреступником, чтобы заставить любого руководителя сказать или сделать что-либо". По данным Центра управления безопасностью (SOC) компании Appgate, за последний год на 74 % увеличилось количество случаев, связанных с нарушением авторских прав и мошенничеством. "Это связано с легкостью доступа и использования генеративных инструментов, поскольку они повышают доверие к мистификациям", - говорит Дэвид Лопес, вице-президент по продажам в США и Латинской Америке компании Appgate. "В недавнем отчете KPMG о генеративном ИИ для 300 руководителей из разных отраслей и географических регионов отмечается, что ФБР предупреждает о так называемой "компрометации деловой идентичности" (BIC), которая использует передовые методы генерации и манипулирования контентом для создания синтетических личностей на основе существующих сотрудников. Этот новый вектор может иметь значительные финансовые и репутационные последствия для бизнеса, однако в отчете подчеркивается, что для защиты от этой угрозы практически ничего не делается. "Камило Гутьеррес Амайя, руководитель исследовательской лаборатории ESET в Латинской Америке, объясняет, что осознание проблемы происходит постепенно. До сих пор аферы или мистификации с использованием этих новых технологий не получили широкого распространения, в основном потому, что гораздо более простые методы обмана, такие как фишинг, по-прежнему очень эффективны". Кроме того, необходима законодательная база для развития конкретного правового поля, но регулирование часто отстает от технологий. Deepfakes особенно хорошо подходят для всех видов мошенничества. Их цель - получить деньги или доступ к конфиденциальным данным компании с помощью поддельного аудиовизуального контента. Существуют также так называемые "readfakes", или поддельные тексты, которые имитируют стиль письма и формулировки руководителей. В результате получаются, например, фишинговые электронные письма, в которых сотрудникам предлагается перейти по мошенническим ссылкам, сообщить пароли или отправить конфиденциальные данные. Но под угрозой оказывается и репутация торговых марок, особенно если deepfakes используются для распространения ложной или вводящей в заблуждение информации о компании или ее продукции. "Киберпреступники используют название или образ бренда, чтобы обманом получить личную или финансовую информацию. В любом случае это может привести к потере доверия общества и снижению продаж", - объясняет Федерико Тандетер, управляющий директор по безопасности Accenture HSA. Имея возможность воспроизводить образы известных личностей, связанных с брендом, фальшивомонетчики могут создавать видеоролики, рекламирующие популярные товары, такие как iPhone, игровые приставки или посуда. Стоит отметить, что компании могут непреднамеренно оказаться втянутыми в юридические баталии по этим поводам, что расширяет дискуссию до вопросов согласия, прав интеллектуальной собственности и этичности использования технологий искусственного интеллекта. "Когда речь идет о компаниях, публичное разоблачение deepfake может иметь негативные последствия для корпоративной репутации в целом: генеральные директора, основатели и пресс-секретари находятся под потенциальной угрозой независимо от размера и масштаба организации. Например, видео, в котором генеральный директор компании (по всей видимости) делает полярные заявления по чувствительным вопросам, имеет серьезные последствия, даже если отдел по связям с общественностью быстро отреагирует и опровергнет подлинность контента. "Это может повлиять на авторитет компании и даже на ее рыночную стоимость - хорошо известно, как мнение некоторых корпоративных лидеров в социальных сетях может привести к всплеску активности акционеров", - говорит Хуан Марино, менеджер по стратегии продаж в области кибербезопасности компании Cisco. Другой вариант - недовольный бывший сотрудник, недовольный клиент или нелояльный конкурент могут стремиться к дезинформации, используя deepfakes для распространения фальшивых новостей, мнений и даже преступной деятельности. Объявления, ошибочно сообщающие о предстоящих увольнениях, крупных изменениях в продукции, новых жестких правилах или даже закрытии компании, легко изготовить, и они имеют доказанный негативный эффект. "Глубокие подделки - идеальное дополнение к "сумке инструментов корпоративного киберпреступника", - говорит он. "Больше всего организации должны быть обеспокоены тем, что они предоставляют преступникам еще один инструмент или средство для совершения мошенничества. До недавнего времени мы видели, как мошенничество в Интернете происходит с помощью фишинга или фальшивых телефонных звонков. Теперь же сочетание всех этих факторов делает более убедительным весь аргумент, который преступник разрабатывает, чтобы попытаться обмануть жертву", - говорит Гаспар Пока, партнер BTR Consulting. ESET утверждает, что с точки зрения информационной безопасности безопасность информации должны обеспечивать три основных принципа: доступность, целостность и конфиденциальность. "Последний относится к части информации, доступ к которой может получить только лицо, имеющее на это разрешение; именно в этом аспекте атаки, подобные deepfakes, могут нанести ущерб", - поясняет Гутьеррес Амайя. В бизнес-среде, где доверие и целостность имеют первостепенное значение, угроза, исходящая от подделок, требует немедленного реагирования и постоянной бдительности", - говорит Томаш Таяни, добавляя, что принцип "неотрицания", т. е. того, что часть информации может быть однозначно связана с ее создателем, также может быть затронут. В оперативном плане можно внедрить многоуровневые процедуры аутентификации при передаче или раскрытии данных, которые должны быть понятны всем сотрудникам. "Чтобы предотвратить и избежать компрометации с помощью deepfake, - добавляет Тандетер, - важно иметь команду, которая использует междисциплинарный подход и включает экспертов в области технологий, кибербезопасности, этики и государственной политики". "По словам Марино, более зрелые организации могут рассмотреть инструменты, позволяющие отслеживать активность в социальных сетях или каналах обмена сообщениями для выявления распространения фальшивого контента, особенно для раннего предупреждения о риске клеветнических или фишинговых кампаний. Однако многие компании страдают от отсутствия плана реагирования на инциденты. Одна из основ - правильное управление внутренними и внешними коммуникациями. Можно сказать, что с глубокой фальшивкой нужно бороться глубокой правдой, - размышляет он, - ведь в случае публичной атаки глубокой фальшивки быстро и убедительно доказать, что контент является поддельным, - лучший способ избежать репутационного ущерба". "Компаниям следует заняться разработкой планов обеспечения непрерывности бизнеса, в которых прописаны различные сценарии, способные повлиять на работу предприятия, и механизмы их решения. К таким сценариям относятся случаи глубоких подделок, пока, возможно, с низкой вероятностью возникновения, но с высокой оценкой последствий", - говорит ESET. В целом все меры кибербезопасности, предпринимаемые разработчиками, должны идти рука об руку с повышением осведомленности людей. "Предотвращение мошенничества и защита репутации - это ответственность не только команд безопасности, но и каждого сотрудника организации. Каждый сотрудник должен обладать необходимыми знаниями, чтобы выявлять эти риски и реагировать на них, - говорит Мартин Рабаглиа, генеральный директор компании Genosha. Точно так же, как мы задаемся вопросом, изменено ли изображение, такие же подходы должны применяться и к другим видам аудиовизуального контента, - предлагает Гутьеррес Амайя, добавляя: - Сегодня, как никогда, необходимо думать, прежде чем нажать кнопку, и проверять, что мы смотрим". "Рабалья рассказывает о том, как искусственный интеллект был использован для имитации интервью с футболистом Куном Агуэро, изменив его голос и образ для рекламы онлайн-игры. "Этот инцидент также показывает, с какой проблемой сталкиваются платформы социальных сетей. Они несут двойную ответственность: они должны тщательно предотвращать злоупотребление глубокими подделками, а также следить за тем, как они монетизируют контент". В условиях злоупотребления этой технологией необходимы согласованные усилия как технологических компаний, так и пользователей, чтобы потребовать и разработать более высокие стандарты проверки и подлинности", - говорит он. "Такие компании, как Meta и Cloudflare, уже имеют механизмы, позволяющие брендам и частным лицам сообщать о неправомерном контенте, таком как глубокие подделки. Также появляются передовые технологии обнаружения, такие как AI Reality Defender, с алгоритмами искусственного интеллекта, которые выявляют тонкие несоответствия в видео и аудиофайлах и анализируют такие аспекты, как выражение лица, голос и детали фона, чтобы обнаружить потенциальные глубокие подделки. Также TruePic, стартап, который может добавлять неизменяемые метаданные к изображениям в момент их создания". "Раньше мы полагались на "видеть - значит верить", но теперь это не так. Возможно, самая большая проблема заключается в развитии критического мышления, чтобы различать и сосуществовать с искусственными реальностями, которые могут служить для развлечения, информирования, обучения или наоборот, - говорит Марино, - В конечном итоге, поскольку подобные технологии развиваются семимильными шагами, необходимо объединить усилия всех участников, корпораций, разработчиков технологий, регуляторов и платформ, чтобы способствовать разработке стандартов и решений для борьбы с преступностью и злонамеренным и ненадлежащим использованием". Телеграм-канал "Новости Аргентины"