Южная Америка

Предлагаемый законопроект о борьбе с мошенничеством с использованием искусственного интеллекта направлен на криминализацию дипфейков федеральных чиновников

Предлагаемый законопроект о борьбе с мошенничеством с использованием искусственного интеллекта направлен на криминализацию дипфейков федеральных чиновников
Два законодателя намерены бороться с растущим использованием искусственного интеллекта мошенниками в рамках двухпартийного предложения, представленного во вторник, которое направлено на ужесточение наказаний за мошенничество с использованием ИИ и криминализацию выдачи себя за федеральных чиновников с помощью ИИ. Закон о предотвращении мошенничества с использованием ИИ, предложенный представителями Тедом Лиу (Демократическая партия, Калифорния) и Нилом Данном (Республиканская партия, Флорида), обновит уголовные определения и наказания за мошенничество с учетом роста популярности ИИ. «Поскольку технологии искусственного интеллекта развиваются быстрыми темпами, наши законы должны идти в ногу со временем», — заявил Данн в заявлении, объявляя о внесении законопроекта. «Закон о предотвращении мошенничества с использованием искусственного интеллекта ужесточает наказание за преступления, связанные с мошенничеством, совершенным с помощью искусственного интеллекта. Я горжусь тем, что являюсь соавтором этого закона, направленного на защиту личности граждан и предотвращение злоупотребления этой инновационной технологией», — сказал Данн. «Большинство американцев хотят разумных ограничений на ИИ», — сказал Лиу NBC News на прошлой неделе. «Они не считают, что полный «Дикий Запад» полезен». Предлагаемый закон удвоит максимальное наказание за мошенничество в отношении финансовых учреждений с 1 миллиона долл. до 2 миллионов долл., если ИИ сознательно используется в рамках преступления. Законопроект также явно включит мошенничество с использованием ИИ в определения почтового мошенничества и мошенничества с использованием электронных средств связи, причем последнее более известно как мошенничество, связанное с «радио- или телевизионной связью в межгосударственной или внешней торговле», что открывает явную возможность привлечения к ответственности лиц, использующих ИИ для совершения любого из этих видов мошенничества. Оба преступления будут наказываться штрафом в размере 1 миллиона долл. и лишением свободы на срок до 20 лет за почтовое мошенничество и до 30 лет за электронное мошенничество. Проект также криминализирует выдачу себя за федеральных чиновников с помощью глубоких подделок с использованием ИИ, ссылаясь на использование ИИ в попытках успешно имитировать главу аппарата Белого дома Сьюзи Уайлс и государственного секретаря Марко Рубио в начале этого года. Хотя мошенничество существует уже тысячелетия, эксперты говорят, что ИИ может усугубить его, облегчая доступ к инструментам для мошенничества и повышая качество мошеннических результатов. Люди, которые до появления ИИ не тратили бы энергию, необходимую для совершения мошенничества, теперь могут легко ввести несколько фраз в программу для генерации изображений или видео, чтобы создать поддельное изображение или документ. Используя ИИ, мошенники также могут создавать поддельные медиа или документы более высокого качества по сравнению с часто неаккуратными или явно поддельными ручными работами. В декабре ФБР предупредило, что «генеративный ИИ сокращает время и усилия, которые преступники должны затратить, чтобы обмануть свои цели». В предупреждении также отмечалось, что ИИ «может исправлять человеческие ошибки, которые в противном случае могли бы служить предупреждающими признаками мошенничества». Как сообщает The New York Times, компании по управлению расходами и возмещением расходов, такие как Expensify, AppZen и Concur (SAP), в начале этого года внедрили инструменты для выявления поддельных квитанций, сгенерированных ИИ. AppZen сообщила, что примерно 14 % всех поддельных документов, представленных в сентябре, были сгенерированы ИИ, в то время как годом ранее таких инцидентов не было. Маура Р. Гроссман, профессор информатики в Университете Ватерлоо в Онтарио и юрист, сказал NBC News, что ИИ открывает новую эру обмана: «ИИ предоставляет масштаб, возможности и скорость для мошенничества, которые очень сильно отличаются от мошенничества в прошлом». Многие наблюдатели опасаются, что существующие институты, такие как суды, не смогут идти в ногу с быстрым развитием ИИ. «Годы ИИ — это годы собаки», — сказал Хани Фарид, профессор компьютерных наук в Университете Калифорнии в Беркли и соучредитель GetReal Security, ведущей компании по аутентификации цифровых медиа, имея в виду скорость прогресса ИИ. Если раньше изображения, сгенерированные ИИ, можно было идентифицировать по появлению лишних ног или рук из-за примитивности предыдущих моделей генерации изображений, то сегодняшние модели генерации изображений гораздо более точны. В декабре ФБР выпустило предупреждение, в котором призывало людей искать несоответствия в изображениях и видео, чтобы идентифицировать медиа, сгенерированные ИИ: «Ищите мелкие несовершенства в изображениях и видео, такие как искаженные руки или ноги». Но для Фарида этот совет, данный 11 месяцев назад, является неправильным и даже вредным. «Трюк с несколькими руками больше не работает, — сказал Фарид. — Нельзя искать руки или ноги. Ничто из этого не работает». Подчеркивая важность маркировки контента, сгенерированного ИИ, в предложенном законопроекте Лиу и Данна разъясняется, что для медиа, сгенерированных ИИ, есть свое время и место. В проекте, представленном во вторник, предусмотрено исключение для ИИ в сатире или других действиях, защищенных Первой поправкой, «при условии, что такой контент содержит четкое указание на то, что он не является подлинным».