Южная Америка

Как искусственный интеллект чуть не испортил решение суда в США.

Как искусственный интеллект чуть не испортил решение суда в США.
Искусственный интеллект (ИИ) стремительно развивается во многих областях, и судебная система не является чужой для этих преобразований. Но какие последствия может иметь внедрение столь мощной - и все еще несовершенной - технологии для принятия решений, которые напрямую влияют на права и обязанности людей? Недавнее дело против страховой компании State Farm в Лос-Анджелесе, штат Калифорния, США, проливает свет на этот вопрос. Судья Майкл Уилнер раскритиковал юридическую фирму за использование искусственного интеллекта для создания отчета, содержащего ложные и неточные юридические ссылки. В результате Уилнер наложил санкции в размере 31 000 долларов США и заявил, что «ни один разумно компетентный юрист не должен поручать исследования и составление отчета искусственному интеллекту», говорится в решении, вынесенном на прошлой неделе. «Я прочитал ваш доклад, был убежден (или, по крайней мере, заинтригован) авторитетами, на которые вы ссылались, и обратился к решениям, чтобы узнать о них больше, но обнаружил, что их не существует», - сказал Уилнер. «Это ужасно. Это почти привело к еще более пугающему результату (с моей точки зрения) - включению этих ложных материалов в судебное постановление«, - сказал он. „Ознакомившись с запиской, судья Уилнер обнаружил, что по крайней мере два из приведенных авторитетов “вообще не существуют», поэтому он потребовал разъяснений. «Ни один из адвокатов или сотрудников, очевидно, не проверил цитаты и никак не проанализировал эти исследования до подачи записки», - сказал он. «Фирма «КЛ Гейтс» повторно представила документ в суд, но на этот раз с «большим количеством выдуманных цитат и фраз, в дополнение к двум первоначальным ошибкам». После этого эпизода Уилнер издал приказ об оправдании, который заставил одного из юристов признать, что при составлении документа он использовал Google Gemini и другие инструменты для юридических исследований, обученные искусственным интеллектом. «Первоначальное, нераскрытое использование продуктов искусственного интеллекта для создания первого проекта записки было полностью ошибочным, а отправка этого материала другим юристам без раскрытия его сомнительного происхождения с помощью искусственного интеллекта фактически подвергла этих специалистов риску», - заключил Уилнер. »Это не первый случай, когда неправильное использование этой технологии вызывает беспокойство, страх и неопределенность в юридическом мире. В декабре 2023 года бывший адвокат Трампа Майкл Коэн принял Google Gemini - в то время она называлась Bard - за «сверхмощную поисковую систему», а не за чат-бот с искусственным интеллектом, в результате чего в юридическом документе он привел выдуманные судебные дела, сообщает The Verge. «По мнению Антонеллы Стрингини, юриста, специализирующегося на государственном управлении и искусственном интеллекте, и академического директора проектов искусственного интеллекта Ubatec, цифровая грамотность и обучение являются ключевыми для решения новых профессиональных задач». »Языковые модели могут имитировать человеческие знания и понимание, галлюцинировать, давать вымышленные, предвзятые или фантазийные ответы. Это зависит от модели, которую мы используем, лицензированной или нелицензированной, она может иметь более ограниченное контекстное окно, чем другие», - объяснил он LA NACION. Он назвал эти инструменты «черными ящиками»: «Мы не знаем, как они приходят к такому ответу, если мы не примем методологию или не разработаем методику, чтобы иметь возможность гарантировать это». «Стрингини подчеркнул важность человеческого контроля: «Компетентное должностное лицо всегда должно быть рядом, чтобы подтвердить ответ и присутствовать на протяжении всей подготовки инструкции». «В свою очередь, Хуан Г. Корвалан, доктор юридических наук, магистр в области ИИ и один из создателей Prometea, системы предиктивного ИИ, применяемой в испано-американской системе правосудия, считает, что это новая парадигма. «Это самая разрушительная технология в истории человечества. Именно поэтому она заставляет нас с нуля переосмыслить то, как мы представляем себе судебные процессы», - сказал он. «Если мы продолжим внедрять искусственный интеллект в структуры, рассчитанные на бумагу, физические файлы или устаревшие ИТ-системы, мы забюрократизируем их, деформируем и, возможно, во многих случаях увеличим риски и вызовы». В этом смысле Корвалан утверждает, что основной риск заключается в делегировании ответственных решений автоматизированным системам без надлежащего человеческого контроля. Для решения этой задачи идеально подходит масштабируемая архитектура надзора, пропорциональная влиянию каждой задачи. «Мы должны подумать об ответственных критериях проектирования, прозрачности, отслеживаемости и специальных компетенциях в государственном секторе для аудита и оценки этих инструментов в режиме реального времени», - сказал он. «В этой связи, по его словам, роль судей становится еще более актуальной: «Именно им придется руководить командами кентавров, редактирование, надзор и контроль над агентами ИИ будут наиболее актуальной задачей». При этом он отметил, что для работников судебной системы будет крайне важно обладать способностью учиться и переучиваться в условиях все более стремительной динамики. «Регулирование также играет ключевую роль, поскольку оно привносит как ограничения, так и определенность. «Регулирование позволяет нам установить общие стандарты использования этих инструментов в судебных процессах и дает нам механизмы доверия, которые люди иногда теряют при использовании технологий», - сказал Стрингини. «Корвалан также отметил, что регулирование необходимо, но без наложения ограничений на инновации. «Слишком раннее и закрытое регулирование может привести к обратным последствиям. Необходимо не столько детальное законодательство, сколько создание динамичных протоколов, руководящих принципов и рамок доверия», - сказал он. В этом смысле, по его мнению, в таких странах, как Аргентина, наиболее жизнеспособным вариантом является ставка на адаптивные правила, „которые развиваются вместе с технологиями и основаны на практическом опыте, накопленном в государственном секторе“. «Возможность выработать передовые методы, руководящие принципы или рекомендации сделает внедрение ИИ гораздо более ответственным и неизменным с этической точки зрения», - заключил Стрингини.