Южная Америка Консультация о получении ПМЖ и Гражданства в Уругвае

Deepfake alert: как фальшивый контент (и искусственный интеллект) угрожает миру бизнеса


Новости Аргентины

Deepfake alert: как фальшивый контент (и искусственный интеллект) угрожает миру бизнеса

Менее месяца назад стало известно, что финансовый сотрудник гонконгской транснациональной корпорации заплатил 25 миллионов долларов США мошенникам, которые использовали технологию deepfake - контент, использующий искусственный интеллект для манипулирования текстом, изображениями, видео и аудио до такой степени, что невозможно отличить настоящее от подделки. В тщательно продуманной афере работника обманом заставили принять участие в видеозвонке с другими членами его команды, но все они на самом деле были ультраподдельными воссозданиями. В результате он согласился перевести требуемую сумму по объясненным ему причинам. "Deepfakes" (deep learning и "fake") в наши дни находятся в центре внимания искусственного интеллекта. Среди прочего, они стали известны благодаря видеороликам, в которых звезды и политики говорят, показывают или действуют в поддельных ситуациях, наносящих ущерб их репутации. "В январе 2024 года образ Тейлор Свифт был использован для создания поддельных видеороликов, рекламирующих тотализатор посуды Le Creuset. В том же месяце в социальных сетях распространились порнографические фейки певицы. Жертвами фальшивок становились и другие знаменитости: Элон Маск, Уоррен Баффет, Барак Обама и Дональд Трамп. В конце 2023 года Том Хэнкс сообщил на своем аккаунте в Instagram о распространении фальшивого видео, в котором актер "рекламирует" стоматологический план. MrBeast, один из самых известных ютуберов в мире, предупредил, что на TikTok можно увидеть рекламу, в которой его поддельная версия говорит, что отдаст 15 айфонов в обмен на два доллара: "Влияние глубоких подделок настолько реально и незаметно, что это бьет тревогу для бизнеса. С недавним запуском Sora - искусственного интеллекта, который может генерировать видео из текста, созданного OpenAI, той же компанией, которая разработала ChatGPT, - вам даже не нужно быть экспертом в области технологий или киберпреступником, чтобы заставить любого руководителя сказать или сделать что-либо". По данным Центра управления безопасностью (SOC) компании Appgate, за последний год на 74 % увеличилось количество случаев, связанных с нарушением авторских прав и мошенничеством. "Это связано с легкостью доступа и использования генеративных инструментов, поскольку они повышают доверие к мистификациям", - говорит Дэвид Лопес, вице-президент по продажам в США и Латинской Америке компании Appgate. "В недавнем отчете KPMG о генеративном ИИ для 300 руководителей из разных отраслей и географических регионов отмечается, что ФБР предупреждает о так называемой "компрометации деловой идентичности" (BIC), которая использует передовые методы генерации и манипулирования контентом для создания синтетических личностей на основе существующих сотрудников. Этот новый вектор может иметь значительные финансовые и репутационные последствия для бизнеса, однако в отчете подчеркивается, что для защиты от этой угрозы практически ничего не делается. "Камило Гутьеррес Амайя, руководитель исследовательской лаборатории ESET в Латинской Америке, объясняет, что осознание проблемы происходит постепенно. До сих пор аферы или мистификации с использованием этих новых технологий не получили широкого распространения, в основном потому, что гораздо более простые методы обмана, такие как фишинг, по-прежнему очень эффективны". Кроме того, необходима законодательная база для развития конкретного правового поля, но регулирование часто отстает от технологий. Deepfakes особенно хорошо подходят для всех видов мошенничества. Их цель - получить деньги или доступ к конфиденциальным данным компании с помощью поддельного аудиовизуального контента. Существуют также так называемые "readfakes", или поддельные тексты, которые имитируют стиль письма и формулировки руководителей. В результате получаются, например, фишинговые электронные письма, в которых сотрудникам предлагается перейти по мошенническим ссылкам, сообщить пароли или отправить конфиденциальные данные. Но под угрозой оказывается и репутация торговых марок, особенно если deepfakes используются для распространения ложной или вводящей в заблуждение информации о компании или ее продукции. "Киберпреступники используют название или образ бренда, чтобы обманом получить личную или финансовую информацию. В любом случае это может привести к потере доверия общества и снижению продаж", - объясняет Федерико Тандетер, управляющий директор по безопасности Accenture HSA. Имея возможность воспроизводить образы известных личностей, связанных с брендом, фальшивомонетчики могут создавать видеоролики, рекламирующие популярные товары, такие как iPhone, игровые приставки или посуда. Стоит отметить, что компании могут непреднамеренно оказаться втянутыми в юридические баталии по этим поводам, что расширяет дискуссию до вопросов согласия, прав интеллектуальной собственности и этичности использования технологий искусственного интеллекта. "Когда речь идет о компаниях, публичное разоблачение deepfake может иметь негативные последствия для корпоративной репутации в целом: генеральные директора, основатели и пресс-секретари находятся под потенциальной угрозой независимо от размера и масштаба организации. Например, видео, в котором генеральный директор компании (по всей видимости) делает полярные заявления по чувствительным вопросам, имеет серьезные последствия, даже если отдел по связям с общественностью быстро отреагирует и опровергнет подлинность контента. "Это может повлиять на авторитет компании и даже на ее рыночную стоимость - хорошо известно, как мнение некоторых корпоративных лидеров в социальных сетях может привести к всплеску активности акционеров", - говорит Хуан Марино, менеджер по стратегии продаж в области кибербезопасности компании Cisco. Другой вариант - недовольный бывший сотрудник, недовольный клиент или нелояльный конкурент могут стремиться к дезинформации, используя deepfakes для распространения фальшивых новостей, мнений и даже преступной деятельности. Объявления, ошибочно сообщающие о предстоящих увольнениях, крупных изменениях в продукции, новых жестких правилах или даже закрытии компании, легко изготовить, и они имеют доказанный негативный эффект. "Глубокие подделки - идеальное дополнение к "сумке инструментов корпоративного киберпреступника", - говорит он. "Больше всего организации должны быть обеспокоены тем, что они предоставляют преступникам еще один инструмент или средство для совершения мошенничества. До недавнего времени мы видели, как мошенничество в Интернете происходит с помощью фишинга или фальшивых телефонных звонков. Теперь же сочетание всех этих факторов делает более убедительным весь аргумент, который преступник разрабатывает, чтобы попытаться обмануть жертву", - говорит Гаспар Пока, партнер BTR Consulting. ESET утверждает, что с точки зрения информационной безопасности безопасность информации должны обеспечивать три основных принципа: доступность, целостность и конфиденциальность. "Последний относится к части информации, доступ к которой может получить только лицо, имеющее на это разрешение; именно в этом аспекте атаки, подобные deepfakes, могут нанести ущерб", - поясняет Гутьеррес Амайя. В бизнес-среде, где доверие и целостность имеют первостепенное значение, угроза, исходящая от подделок, требует немедленного реагирования и постоянной бдительности", - говорит Томаш Таяни, добавляя, что принцип "неотрицания", т. е. того, что часть информации может быть однозначно связана с ее создателем, также может быть затронут. В оперативном плане можно внедрить многоуровневые процедуры аутентификации при передаче или раскрытии данных, которые должны быть понятны всем сотрудникам. "Чтобы предотвратить и избежать компрометации с помощью deepfake, - добавляет Тандетер, - важно иметь команду, которая использует междисциплинарный подход и включает экспертов в области технологий, кибербезопасности, этики и государственной политики". "По словам Марино, более зрелые организации могут рассмотреть инструменты, позволяющие отслеживать активность в социальных сетях или каналах обмена сообщениями для выявления распространения фальшивого контента, особенно для раннего предупреждения о риске клеветнических или фишинговых кампаний. Однако многие компании страдают от отсутствия плана реагирования на инциденты. Одна из основ - правильное управление внутренними и внешними коммуникациями. Можно сказать, что с глубокой фальшивкой нужно бороться глубокой правдой, - размышляет он, - ведь в случае публичной атаки глубокой фальшивки быстро и убедительно доказать, что контент является поддельным, - лучший способ избежать репутационного ущерба". "Компаниям следует заняться разработкой планов обеспечения непрерывности бизнеса, в которых прописаны различные сценарии, способные повлиять на работу предприятия, и механизмы их решения. К таким сценариям относятся случаи глубоких подделок, пока, возможно, с низкой вероятностью возникновения, но с высокой оценкой последствий", - говорит ESET. В целом все меры кибербезопасности, предпринимаемые разработчиками, должны идти рука об руку с повышением осведомленности людей. "Предотвращение мошенничества и защита репутации - это ответственность не только команд безопасности, но и каждого сотрудника организации. Каждый сотрудник должен обладать необходимыми знаниями, чтобы выявлять эти риски и реагировать на них, - говорит Мартин Рабаглиа, генеральный директор компании Genosha. Точно так же, как мы задаемся вопросом, изменено ли изображение, такие же подходы должны применяться и к другим видам аудиовизуального контента, - предлагает Гутьеррес Амайя, добавляя: - Сегодня, как никогда, необходимо думать, прежде чем нажать кнопку, и проверять, что мы смотрим". "Рабалья рассказывает о том, как искусственный интеллект был использован для имитации интервью с футболистом Куном Агуэро, изменив его голос и образ для рекламы онлайн-игры. "Этот инцидент также показывает, с какой проблемой сталкиваются платформы социальных сетей. Они несут двойную ответственность: они должны тщательно предотвращать злоупотребление глубокими подделками, а также следить за тем, как они монетизируют контент". В условиях злоупотребления этой технологией необходимы согласованные усилия как технологических компаний, так и пользователей, чтобы потребовать и разработать более высокие стандарты проверки и подлинности", - говорит он. "Такие компании, как Meta и Cloudflare, уже имеют механизмы, позволяющие брендам и частным лицам сообщать о неправомерном контенте, таком как глубокие подделки. Также появляются передовые технологии обнаружения, такие как AI Reality Defender, с алгоритмами искусственного интеллекта, которые выявляют тонкие несоответствия в видео и аудиофайлах и анализируют такие аспекты, как выражение лица, голос и детали фона, чтобы обнаружить потенциальные глубокие подделки. Также TruePic, стартап, который может добавлять неизменяемые метаданные к изображениям в момент их создания". "Раньше мы полагались на "видеть - значит верить", но теперь это не так. Возможно, самая большая проблема заключается в развитии критического мышления, чтобы различать и сосуществовать с искусственными реальностями, которые могут служить для развлечения, информирования, обучения или наоборот, - говорит Марино, - В конечном итоге, поскольку подобные технологии развиваются семимильными шагами, необходимо объединить усилия всех участников, корпораций, разработчиков технологий, регуляторов и платформ, чтобы способствовать разработке стандартов и решений для борьбы с преступностью и злонамеренным и ненадлежащим использованием". Телеграм-канал "Новости Аргентины"