В судах появляются доказательства, полученные с помощью искусственного интеллекта. Судьи заявляют, что они к этому не готовы.
Судья Виктория Колаковски почувствовала, что с доказательством 6C что-то не так. Представленное истцами в рамках жилищного спора в Калифорнии, видео показывало свидетеля с нечёткой и монотонной речью, размытым лицом и отсутствием эмоций. Каждые несколько секунд свидетельница дергалась и повторяла свои выражения. Колаковски, которая работает в Верховном суде округа Аламеда в Калифорнии, вскоре поняла, почему: видео было создано с помощью генеративного искусственного интеллекта. Хотя в видео утверждалось, что на нем запечатлена реальная свидетельница, которая фигурировала в другом, подлинном доказательстве, доказательство 6C было «дипфейком», созданным с помощью ИИ, сказала Колаковски. Дело Mendones v. Cushman & Wakefield, Inc., по-видимому, является одним из первых случаев, когда подозрительный дипфейк был представлен в суде в качестве якобы подлинного доказательства и обнаружен — что, по мнению судей и юридических экспертов, является признаком гораздо более серьезной угрозы. Ссылаясь на использование истцами материалов, сгенерированных искусственным интеллектом и маскирующихся под реальные доказательства, Колаковски 9 сентября отклонила дело. Истцы просили пересмотреть ее решение, argumenting the judge suspected but failed to prove that the evidence was AI-generated. Судья Колаковски отклонила их просьбу о пересмотре 6 ноября. Истцы не ответили на запрос о комментарии. С появлением мощных инструментов искусственного интеллекта контент, созданный с помощью ИИ, все чаще попадает в суды, и некоторые судьи опасаются, что гиперреалистичные поддельные доказательства скоро наводнят их залы судебных заседаний и поставят под угрозу их миссию по установлению фактов. NBC News поговорила с пятью судьями и 10 юридическими экспертами, которые предупредили, что быстрый прогресс в области генеративного ИИ, который теперь способен создавать убедительные поддельные видео, изображения, документы и аудиозаписи, может подорвать основу доверия, на которой стоят суды. Некоторые судьи пытаются привлечь внимание к этой проблеме и призывают к принятию мер, но этот процесс только начинается. «Судебная система в целом осознает, что происходят большие изменения, и хочет понять ИИ, но я не думаю, что кто-либо осознает все последствия», — сказал Колаковски NBC News. «Мы все еще имеем дело с технологией, которая находится в зачаточном состоянии». До дела Мендонеса суды неоднократно сталкивались с явлением, известным как «дивиденды лжеца», — когда истцы и ответчики ссылаются на возможность использования генеративного ИИ, чтобы поставить под сомнение подлинность фактических доказательств. Но в деле Мендонеса суд установил, что истцы пытались сделать обратное: ложно признать видео, сгенерированное ИИ, подлинным доказательством. Судья Стони Хилюс, который работает в 10-м судебном округе Миннесоты и является председателем Комитета по реагированию на ИИ судебной ветви Миннесоты, сказал, что это дело выдвигает на первый план растущую озабоченность среди судей. «Я думаю, что многие судьи опасаются, что они примут решение на основе чего-то нереального, сгенерированного ИИ, и это будет иметь реальные последствия для чьей-то жизни», — сказал он. Многие судьи по всей стране согласны с этим, даже те, кто выступает за использование ИИ в суде. Судья Скотт Шлегель работает в Пятом апелляционном суде Луизианы и является ведущим сторонником внедрения технологий ИИ в судебную практику, но он также обеспокоен рисками, которые генеративный ИИ представляет для поиска истины. «Мы с женой вместе уже более 30 лет, и у нее есть записи моего голоса повсюду, — сказал Шлегель. — Она могла бы легко клонировать мой голос с помощью бесплатного или недорогого программного обеспечения, чтобы создать угрожающее сообщение, которое звучало бы как от меня, и пойти с этой записью в любой суд по всей стране». «Судья подпишет этот запретительный приказ. Они будут подписывать его каждый раз», — сказал Шлегель, имея в виду гипотетическую запись. «Так что вы теряете свою кошку, собаку, оружие, дом, вы теряете все». Судья Эрика Ю, член Верховного суда округа Санта-Клара в Калифорнии с 2001 года, с энтузиазмом относится к использованию ИИ в судебной системе и его потенциалу для расширения доступа к правосудию. Однако она также признала, что поддельное аудио может легко привести к вынесению защитного ордера, и выступила за более централизованное отслеживание таких инцидентов. «Мне не известно ни одного хранилища, куда суды могут сообщать или фиксировать свои случаи столкновения с глубоко поддельными доказательствами», — сказала Ю NBC News. «Я думаю, что поддельные или измененные доказательства, созданные с помощью ИИ, встречаются гораздо чаще, чем об этом сообщается публично». Йу выразила обеспокоенность тем, что дипфейки могут подрывать другие, давно зарекомендовавшие себя методы получения доказательств в суде. С помощью ИИ «кто-то может легко сфабриковать поддельную запись о праве собственности и обратиться, например, в окружной суд», чтобы установить право собственности на автомобиль. Но окружной судья, скорее всего, не будет иметь ни опыта, ни времени, чтобы проверить подлинность документа о праве собственности, и просто внесет его в официальный реестр, считает Йу. «Теперь истец может получить копию документа и представить ее в суд, и судья, скорее всего, примет ее. Так теперь я, как судья, должен подвергать сомнению источник доказательств, который традиционно считался надежным?» — задается вопросом Йу. Хотя фальшивые доказательства давно являются проблемой для судов, Йу считает, что ИИ может привести к беспрецедентному росту количества реалистичных фальшивых доказательств. «Мы находимся на совершенно новой границе», — сказал Йу. Шлегель и Йу входят в небольшую группу судей, возглавляющих усилия по борьбе с возникающей угрозой дипфейков в суде. К ним присоединился консорциум Национального центра государственных судов и Института Томсона Рейтерса, который создал ресурсы для судей, чтобы они могли решать растущую проблему дипфейков. Консорциум классифицирует дипфейки как «непризнанные доказательства ИИ», чтобы отличить эти творения от «признанных доказательств ИИ», таких как сгенерированные ИИ видеореконструкции аварий, которые все стороны признают как сгенерированные ИИ. В начале этого года консорциум опубликовал памятку, чтобы помочь судьям справляться с дипфейками. В документе судьям рекомендуется просить тех, кто предоставляет потенциально сгенерированные ИИ доказательства, объяснить их происхождение, раскрыть, кто имел доступ к доказательствам, сообщить, были ли доказательства каким-либо образом изменены, и поискать подтверждающие доказательства. В апреле 2024 года судья штата Вашингтон отклонил попытку ответчика использовать инструмент ИИ для прояснения представленного видео. По словам Хилюса, судьи по всей стране начинают обращать внимание на влияние ИИ на их работу, выходит за рамки этой группы сторонников. «Судьи начинают задумываться: являются ли эти доказательства подлинными? Были ли они изменены? Являются ли они просто старыми подделками? За последние несколько месяцев, особенно с появлением Sora от OpenAI, мы узнали, что не так уж и сложно создать действительно реалистичное видео, на котором кто-то делает то, чего никогда не делал», — сказал Хилюс. «Я слышу от судей, которые действительно обеспокоены этим и которые думают, что они могут сталкиваться с доказательствами, сгенерированными ИИ, но не знают, как подходить к этой проблеме». В настоящее время Хилюс проводит опрос среди судей штата Миннесота, чтобы лучше понять, как генеративный ИИ проявляется в их залах судебных заседаний. Чтобы решить проблему роста числа дипфейков, несколько судей и юридических экспертов выступают за изменение судебных правил и руководящих принципов, касающихся проверки адвокатами своих доказательств. В соответствии с законом и по согласованию с Верховным судом Конгресс США устанавливает правила использования доказательств в судах низшей инстанции. Одно из предложений, разработанное Маурой Р. Гроссман, профессором-исследователем в области компьютерных наук Университета Ватерлоо и практикующим юристом, и Полом Гриммом, профессором юридической школы Дьюка и бывшим федеральным окружным судьей, требует от сторон, утверждающих, что оппоненты использовали дипфейки, тщательно обосновывать свои аргументы. Другое предложение предусматривает передачу обязанности по идентификации дипфейков от впечатлительных присяжных к судьям. Эти предложения были рассмотрены Консультативным комитетом по правилам доказывания Судебной конференции США на заседании в мае, но не были одобрены. Члены комитета утверждали, что «существующие стандарты подлинности вполне подходят для регулирования доказательств, полученных с помощью ИИ». Судебная конференция США — это голосующий орган, состоящий из 26 федеральных судей, который курирует председатель Верховного суда. После того как комитет рекомендует изменение судебных правил, конференция голосует по предложению, которое затем рассматривается Верховным судом и ставится на голосование в Конгрессе. Несмотря на то, что комитет решил пока не продвигать изменение правил, он был заинтересован в том, чтобы сохранить правило о доказательствах, связанных с дипфейками, «в запасе на случай, если комитет решит в будущем продвигать поправку об ИИ», согласно записям комитета. Гримм был пессимистично настроен по поводу этого решения, учитывая, как быстро развивается экосистема ИИ. По его подсчетам, для принятия нового федерального правила о доказательствах требуется как минимум три года. План действий администрации Трампа в области ИИ, опубликованный в июле в качестве дорожной карты администрации для американских усилий в области ИИ, подчеркивает необходимость «борьбы с синтетическими медиа в судебной системе» и выступает за изучение специальных стандартов для дипфейков, аналогичных предлагаемым изменениям правил в отношении доказательств. Однако другие юристы считают, что наиболее разумным подходом будет осторожный подход, когда прежде чем приступать к обновлению общих правил доказывания, следует подождать и посмотреть, как часто дипфейки действительно принимаются в качестве доказательств в суде и как на это реагируют судьи. Джонатан Мейер, бывший главный научный и технический советник и директор по искусственному интеллекту в Министерстве юстиции США при президенте Джо Байдене, а ныне профессор Принстонского университета, рассказал NBC News, что он регулярно сталкивался с проблемой искусственного интеллекта в судебной системе: «Постоянно возникал вопрос, требует ли эффективное решение проблемы злоупотреблений искусственным интеллектом принятия нового закона, включая новые уставные полномочия или судебные правила». «В целом мы пришли к выводу, что существующего законодательства достаточно», — сказал он. Однако «влияние ИИ может измениться — и измениться быстро — поэтому мы также продумали и подготовились к возможным сценариям». Тем временем адвокаты могут стать первой линией защиты от дипфейков, проникающих в залы судебных заседаний США. Судья Шлегель указал на закон штата Луизиана № 250, принятый в начале этого года, как на успешный и эффективный способ изменить нормы в отношении дипфейков на уровне штата. Закон обязывает адвокатов проявлять «разумную осмотрительность» при определении того, были ли доказательства, представленные ими или их клиентами, сгенерированы ИИ. «Суды не могут сделать все сами», — сказал Шлегель. «Когда ваш клиент входит в дверь и передает вам 10 фотографий, вы должны задать ему вопросы. Где вы взяли эти фотографии? Вы сняли их на телефон или на камеру?» «Если что-то не так, вам нужно более тщательно изучить вопрос, прежде чем представлять эти доказательства в суде. А если вы этого не сделаете, то нарушите свои обязанности в качестве должностного лица суда», — сказал он. Дэниел Гарри, соучредитель компании Law & Forensics, занимающейся кибербезопасностью и цифровой криминалистикой, сказал, что человеческий опыт должен будет и впредь дополнять усилия, основанные исключительно на цифровых технологиях. «Ни один инструмент не является идеальным, и часто возникают дополнительные факты, которые имеют значение», — написал Гарри в электронном письме. «Например, человек не мог находиться в определенном месте, если данные GPS показывают, что в момент предполагаемой съемки фотографии он был в другом месте». Метаданные — или невидимые описательные данные, прикрепленные к файлам, которые описывают такие факты, как происхождение файла, дата создания и дата изменения — могут стать ключевым средством защиты от дипфейков в ближайшем будущем. Например, в деле Мендонеса суд установил, что метаданные одного из якобы реальных, но сфабрикованных видео показали, что видео истцов было снято на iPhone 6, что было невозможно, учитывая, что аргументы истцов требовали возможностей, доступных только на iPhone 15 или более поздних моделях. Суды также могут обязать производителей оборудования для видео- и аудиозаписи включать надежные математические подписи, подтверждающие происхождение и подлинность их результатов, что позволит судам проверять, что контент был записан реальными камерами. Такие технологические решения все еще могут сталкиваться с серьезными препятствиями, подобными тем, которые мешали предыдущим попыткам законодательства адаптироваться к новым технологиям, таким как тестирование ДНК или даже анализ отпечатков пальцев. Стороны, не обладающие новейшими техническими знаниями в области искусственного интеллекта и дипфейков, могут оказаться в невыгодном положении при доказывании происхождения доказательств. Гроссман, профессор Университета Ватерлоо, сказал, что на данный момент судьям необходимо сохранять бдительность. «Любой, у кого есть устройство и подключение к Интернету, может взять 10 или 15 секунд вашего голоса и получить достаточно убедительную запись, чтобы позвонить в ваш банк и снять деньги. Генеративный ИИ демократизировал мошенничество». «Мы действительно переходим к новой парадигме, — сказал Гроссман. — Вместо «доверяй, но проверяй» мы должны говорить: «Не доверяй и проверяй».
