Южная Америка

Представлено судебное превентивное средство против «дипфейков» в предвыборной кампании

Представлено судебное превентивное средство против «дипфейков» в предвыборной кампании
Конституционный юрист Андрес Гил Домингес подал в суд коллективный иск о предотвращении фальсификации выборов, требуя от государства принять до предстоящих в октябре национальных выборов эффективные меры по предотвращению, предупреждению и пресечению «дипфейков» или фальшивых новостей, основанных на поддельных видеороликах, в которых с помощью искусственного интеллекта (ИИ) клонируются голос и лицо. Иск направлен на то, чтобы избиратели не были введены в заблуждение при голосовании, и направлен против Кабинета министров и Подсекретариата по политическим вопросам. Дело было передано в федеральный избирательный суд Марии Сервини. «Цель иска — защитить право свободно выбирать в рамках прозрачного избирательного процесса». Адвокат сказал, что «дипфейки» — это контент, созданный с помощью ИИ (аудио, изображения, видео), предназначенный для реалистичного имитирования внешности и поведения человека, часто с целью ввести зрителей в заблуждение. «В иске подчеркивается, что генеративный ИИ производит синтетические данные, которые могут искажать существующую информацию или создавать контент, которого никогда не существовало, что влияет на понятие реальности и вымысла». В качестве предыстории он привел события, произошедшие во время предвыборной кампании в Буэнос-Айресе 18 мая 2025 года, когда были распространены видеоролики, созданные с помощью ИИ, в которых имитировались бывший президент Маурисио Макри и депутат Сильвия Лоспеннато, которые быстро опровергли содержание, в котором рекомендулось голосовать за кандидата Хавьера Милеи, Мануэля Адорни. «Избирательный суд Буэнос-Айреса распорядился удалить видео из социальной сети «X». «Этот эпизод продемонстрировал проблемы, связанные с честностью выборов», — сказал адвокат, поскольку был нарушен запрет и «это могло повлиять на результат, учитывая, что кандидат, продвигаемый в поддельном видео, Мануэль Адорни, оказался победителем». В Кордове несколько недель назад национальный депутат распространил видео с голосом и изображением губернатора Мартина Ллариора, созданное с помощью искусственного интеллекта, в котором тот произносил речь, которая не была реальной. «Эти инциденты не являются единичными. В отчете AI Index 2024 Стэнфордского университета содержится предупреждение о том, что политические дипфейки уже влияют на избирательные процессы во всем мире», — сказал Гил Домингес. В качестве примера он привел выборы в США в 2024 году (Дональд Трамп и Камала Харрис), выборы в Бразилии в 2022 году (Лула да Силва и Жаир Болсонару) и дипфейк президента Украины Владимира Зеленского, призывающего свои войска к капитуляции в 2022 году. Национальная избирательная палата в деле «Виллавер, Мария Виктория» уже определила, что такое поведение может подпадать под статью 140 Уголовного кодекса (введение избирателя в заблуждение), и подтвердила, что цель состоит в «сохранении чистоты голосования как основы представительной формы правления».