Южная Америка

Эти люди отказались от услуг адвокатов в суде в пользу ChatGPT

Эти люди отказались от услуг адвокатов в суде в пользу ChatGPT
У Линн Уайт не было выбора. Она задолжала по платежам за свой мобильный дом в Лонг-Бич, Калифорния, и получила уведомление о выселении, но у нее не было денег на адвоката. Поэтому она согласилась на назначенного судом адвоката и проиграла дело. Но Уайт хотела подать апелляцию. Поэтому она решила проконсультироваться с ChatGPT. Ранее она уже использовала ИИ для создания видео для своего небольшого музыкального продюсерского бизнеса, поэтому подумала, что он может помочь и в юридической сфере. «Это было как будто Бог отвечал на мои вопросы», — сказала Уайт после использования чат-бота и поисковой системы на базе искусственного интеллекта под названием Perplexity, чтобы помочь себе в суде. Уайт регулярно предоставляла ChatGPT документы и подробную информацию о своем деле. Чат-бот помог Уайт выявить потенциальные ошибки в процессуальных решениях судьи, наметить возможные варианты действий, изучить применимые законы и подготовить ответы для суда. После нескольких месяцев судебных разбирательств Уайт удалось отменить уведомление о выселении и избежать штрафа в размере примерно 55 000 долл. и более 18 000 долл. за просроченную арендную плату. «Я не могу переоценить полезность ИИ в моем деле», — сказала Уайт. «Я никогда, никогда, никогда не смогла бы выиграть эту апелляцию без ИИ». Изначально Уайт использовала бесплатную версию ChatGPT, а затем перешла на премиум-сервис за 20 долл. в месяц. Уайт использовала Perplexity Pro, который также стоит 20 долл. в месяц. Благодаря множеству генеративных инструментов искусственного интеллекта, доступных любому, у кого есть подключение к Интернету, все больше и больше участников судебных процессов используют ИИ для помощи в своих судебных делах. Многие вообще отказываются от услуг адвокатов и представляют себя в суде, используя ИИ в качестве основного руководства. Чтобы понять роль ИИ в судебных процессах, где участники представляют себя сами, NBC News поговорила с более чем 15 участниками судебных процессов, представляющими себя сами, юристами, руководителями некоммерческих организаций, стартапами в области ИИ и компаниями, занимающимися юридическими исследованиями. В интервью адвокаты и участники судебных процессов описывали ИИ как инструмент, дающий неоднозначные результаты в суде. Некоторые говорят, что инструменты ИИ помогают им ориентироваться в лабиринтах судебных процедур и упрощают юридический жаргон. Другие столкнулись с суровыми штрафами за подачу судебных документов с неточной или несуществующей информацией. Независимо от последствий, юристы и эксперты говорят, что генеративные инструменты ИИ, по-видимому, побуждают некоторых людей обращаться за юридической помощью к алгоритмам, а не к адвокатам-людям. «За последний год я видела больше истцов, представляющих себя в суде самостоятельно, чем, наверное, за всю свою карьеру», — сказала Миган Холмс, помощник юриста в юридической фирме Thorpe Shwer из Феникса, говоря об использовании чат-ботов ИИ в юриспруденции. Некоторые ведущие компании, занимающиеся ИИ, не рекомендуют клиентам использовать свои услуги в юридических целях, в то время как другие практически не упоминают об этой возможности. В условиях предоставления услуг Google говорится: «Не полагайтесь на Услуги в вопросах медицинских, юридических, финансовых или других профессиональных консультаций». Любой контент, касающийся этих тем, предоставляется исключительно в информационных целях и не заменяет консультации квалифицированного специалиста». Политика допустимого использования xAI предупреждает пользователей о том, что они не должны использовать ее модели для работы «в регулируемой отрасли или регионе без соблюдения соответствующих нормативных требований». Однако при задании юридических вопросов большинство чат-ботов отвечают и предоставляют юридические консультации без каких-либо предупреждений, кроме вездесущих мелких шрифтом написанных отказов от ответственности, в которых отмечается, что ответы генеративного ИИ могут быть неточными. В своем заявлении представитель Perplexity Джесси Дуайер сказал NBC News: «Мы не утверждаем, что мы на 100 % точны, но мы утверждаем, что мы единственная компания, которая неустанно работает над этим». «Использование ИИ потребителями в некоторых из самых сложных аспектов правовой экосистемы является доказательством того, насколько необходимы надежность и точность», — написал Дуайер. OpenAI, Anthropic, Google DeepMind и xAI не ответили на запросы о комментариях. Стейси Деннетт — одна из многих истцов, которые сейчас представляют себя с помощью ИИ. Деннетт владеет домашним фитнес-бизнесом в Нью-Мексико и описывает себя как одну из первых пользователей ИИ. Поэтому, когда ей вручили судебную повестку о неоплаченном долге, она обратилась к ChatGPT за советом, как ответить. «Обычно я не веду судебные тяжбы с помощью ChatGPT, но я часто использую его в своем бизнесе и в жизни», — сказала она. Бот предоставил шаблоны и подготовил аргументы для ее ответов, а Деннетт регулярно просила его найти потенциальные ошибки в ее логике. «Я просила ChatGPT притвориться профессором права из Гарварда и разбить мои аргументы в пух и прах», — сказала она. «Разбивать их до тех пор, пока я не получу за задание оценку «А+». В конце концов Уайт договорилась о мировом соглашении и сэкономила более 2000 долл. по сравнению с первоначальным долгом, что, по ее словам, было частичной победой, которую она в значительной степени приписывает ИИ. Она сказала, что адвокаты противоположной стороны похвалили ее за знание закона и судебных процедур по завершении дела, написав ей в электронном письме: «Если закон — это то, что вас интересует как профессия, вы определенно могли бы заниматься этим». Цена юридической консультации AI Несмотря на то, что некоторые истцы добились успеха в спорах по мелким искам, юристы, с которыми пообщалась NBC News, говорят, что судебные документы, составленные AI, часто содержат неточности и ошибочные аргументы. Холмс сказал, что истцы «используют дело, которое им предоставил ChatGPT, а когда я иду его искать, его не существует. В большинстве случаев мы добиваемся их отклонения за непредставление фактического иска, потому что зачастую это просто, не хочу быть грубым, но это нонсенс». Модели ИИ часто генерируют информацию, которая является ложной или вводящей в заблуждение, но представлена как факт, — явление, известное как «галлюцинация». Чат-боты обучаются на обширных наборах данных, чтобы предсказывать наиболее вероятный ответ на запрос, но иногда сталкиваются с пробелами в своих знаниях. В таких случаях модель может попытаться восполнить пробелы с помощью наилучшего приближения, что может привести к неточным или вымышленным деталям. Для участников судебных процессов галлюцинации ИИ могут привести к дорогостоящим штрафам. Джек Овок, яркий магнат из Флориды, производящий энергетические напитки, который проиграл дело о ложной рекламе на сумму 311 миллионов долл. и теперь представляет себя сам, недавно был наказан за подачу судебного ходатайства с 11 галлюцинациями ИИ, в которых упоминались несуществующие судебные дела. Овок признал, что использовал генеративный ИИ для составления документа из-за своих ограниченных финансовых возможностей. Ему было предписано выполнить 10 часов общественных работ, и теперь он обязан раскрывать информацию о том, использует ли он ИИ во всех будущих документах по делу. «Так же, как юридическая фирма должна проверять работу младшего юриста, так и вы должны проверять работу, выполненную ИИ», — сказал Овок по электронной почте. Холмс и другие юристы говорят, что существуют общие признаки небрежного использования ИИ, такие как ссылки на несуществующие прецеденты, оставленные заполняющие фразы и эмодзи в стиле ChatGPT или форматирование, которое не похоже на типичный юридический документ. Дамьен Шарлотин, юридический исследователь и специалист по данным, организовал публичную базу данных, в которой отслеживаются судебные решения по делам, в которых истцы были пойманы на использовании ИИ в суде. Он задокументировал 282 таких случая в США и более 130 в других странах, начиная с 2023 года. «Это действительно начало ускоряться примерно весной 2025 года», — сказал Шарлотин. И база данных далеко не исчерпывающая. Он отслеживает только те случаи, когда установленное или предполагаемое использование ИИ непосредственно рассматривалось судом, и Шарлотин сказал, что большинство записей в базе данных поступают к нему от юристов или других исследователей. Он отметил, что, как правило, существует три типа ИИ-галлюцинаций: «Есть сфабрикованная судебная практика, и ее довольно легко обнаружить, потому что такого дела не существует. Затем есть ложные цитаты из существующей судебной практики. Их тоже довольно легко обнаружить, потому что можно воспользоваться функцией Control-F», — сказал Шарлотин. «И, наконец, есть искаженные прецеденты. Их гораздо сложнее обнаружить, потому что вы цитируете что-то, что существует, но полностью искажаете его». Эрл Такефман на собственном опыте столкнулся с галлюцинаторными тенденциями ИИ. В настоящее время он представляет себя в нескольких делах во Флориде, касающихся неудачной сделки по пиклболу, и в прошлом году начал использовать ИИ, чтобы помочь себе в суде. «Мне ни на секунду не приходило в голову, что ChatGPT может полностью выдумывать дела, и, к сожалению, я узнал об этом на собственном горьком опыте», — сказал Тейкфман NBC News. Тейкфман осознал свою ошибку, когда адвокат противоположной стороны указал на вымышленное дело в одном из документов Тейкфмана. «Я вернулся к ChatGPT и сказал ему, что он действительно подставил меня», — сказал он. «Он извинился». Судья сделал замечание Такефману за то, что он сослался на одно и то же несуществующее дело — вымышленное дело 1995 года под названием Hernandez v. Gilbert — в двух отдельных документах, среди прочих ошибок, согласно судебным документам. Смущенный своей оплошностью, Такефман решил быть более осторожным. «Я сказал себе: „Хорошо, я знаю, как обойти эту проблему. Я попрошу ChatGPT предоставить мне реальные цитаты из судебного дела, на которое я хочу сослаться. Наверняка они никогда не придумают реальную цитату“. Но оказалось, что они и это придумали!» «Я конечно же не хотел вводить суд в заблуждение, — сказал Такефман. — Они относятся к этому очень, очень серьезно и не прощают тебе, даже если ты выступаешь в суде без адвоката». В конце августа суд обязал Такефмана объяснить, почему он не должен подвергаться санкциям за свои ошибки. Суд принял извинения Такефмана и не применил санкции. Этот опыт не отвратил Такефмана от использования ИИ в своих судебных делах. «Теперь я сверяю информацию из разных приложений, то есть беру то, что дает мне Grok, и ввожу в ChatGPT, чтобы проверить, совпадает ли информация — что все дела реальны, что нет никаких галлюцинаций и что дела действительно означают то, что, по мнению ИИ, они означают», — сказал Такефман. «Затем я ввожу все дела в Google, чтобы провести последнюю проверку и убедиться, что дела реальны. Таким образом, я могу сказать судье, что я проверил дело и оно существует», — сказал Такефман. Пока что большинство галлюцинаций ИИ в базе данных Шарлотина исходят от истцов, представляющих себя самих, но многие из них исходят и от самих адвокатов. В начале этого месяца суд Калифорнии обязал адвоката выплатить штраф в размере 10 000 долл. за подачу апелляции в суд штата, в которой 21 из 23 цитат из упомянутых дел были придуманы ChatGPT. По данным CalMatters, это, по-видимому, самый крупный штраф, когда-либо наложенный за выдумки ИИ. «Я могу легко понять, как человек, у которого нет адвоката и который, возможно, считает, что у него нет денег на услуги юриста, может поддаться искушению воспользоваться одним из этих инструментов», — сказал Роберт Фройнд, адвокат, который регулярно пополняет базу данных Charlotin. «Я не могу понять, как адвокат может предать самые фундаментальные части наших обязанностей перед клиентами... и выдвигать аргументы, основанные на полной выдумке». Фройнд, который руководит юридической фирмой в Лос-Анджелесе, сказал, что наплыв выдумок ИИ тратит время как суда, так и противоположной стороны, заставляя их тратить ресурсы на выявление фактических неточностей. Даже после того, как судья делает замечание кому-то, пойманному на подаче документов, созданных ИИ, иногда тот же истец продолжает заваливать суд документами, «наполненными мусором», созданными ИИ. Мэтью Гарсес, дипломированный медбрат из Нью-Мексико, который является ярым сторонником использования ИИ для представления своих интересов в судебных делах, в настоящее время участвует в 28 федеральных гражданских исках, включая 10 активных апелляций и несколько ходатайств в Верховный суд. Эти дела охватывают целый ряд тем, включая врачебную халатность, жилищные споры между Гарсесом и его арендодателем, а также предполагаемое неправомерное поведение судебных органов по отношению к Гарсесу. Отметив, что Гарсес представил документы, в которых упоминаются многочисленные несуществующие дела, коллегия судей 5-го Апелляционного суда США недавно раскритиковала Гарсеса за многочисленные подачи новых исков, написав, что он «ВТОРОЙ РАЗ ПРЕДУПРЕЖДАЕТСЯ» избегать «в будущем несерьезных, повторяющихся или иных злонамеренных исков», иначе он рискует подвергнуться все более суровым наказаниям. Судья в другом деле Гарсеса также рекомендовал запретить ему подавать какие-либо иски без явного разрешения более старшего судьи и классифицировать Гарсеса как «досадного истца». Тем не менее, Гарсес сказал NBC News, что «ИИ открывает доступ к дверям суда, которые часто остаются закрытыми из-за денег. Без инструментов ИИ для организации, исследования и подготовки документов было бы практически невозможно самостоятельно вести почти 30 федеральных исков». Некоторые юристы остаются оптимистами По мере роста использования ИИ в судах некоторые бесплатные юридические клиники теперь пытаются научить своих клиентов, представляющих себя самостоятельно, использовать ИИ так, чтобы он помогал им, а не вредил — без предоставления прямых юридических консультаций. «Сейчас самое интересное время для юристов», — сказала Зои Долан, старший юрист Public Counsel, некоммерческой юридической фирмы и центра правовой защиты в Лос-Анджелесе. «ИИ — это великий уравнитель. Интернет-исследования в определенной степени сделали юридические библиотеки устаревшими. Я думаю, что ИИ — это действительно следующий рубеж». Что касается истцов, не имеющих юридической экспертизы, Монтез сказал, что, по его мнению, большинство дел слишком сложны, чтобы ИИ в одиночку мог понять достаточный контекст и предоставить достаточно хороший анализ, чтобы помочь кому-то добиться успеха в суде. Но он отметил, что может представить себе будущее, в котором больше людей будут использовать ИИ, чтобы успешно представлять себя, особенно в судах по мелким искам. Уайт, которая в этом году избежала выселения с помощью ChatGPT и Perplexity.ai, сказала, что считает ИИ способом выравнивания игрового поля. Когда ее спросили, какой совет она дала бы другим истцам, представляющим себя в суде без адвоката, она решила, что уместно будет составить ответ с помощью ChatGPT. «ИИ предоставил мне поддержку в исследованиях, помощь в составлении документов и организационные навыки, к которым я не имела доступа. Я использовала ИИ в качестве виртуального помощника юриста», — сказала Уайт, зачитывая ответ ChatGPT. Вставляя свои собственные мысли, она добавила: «И он хочет, чтобы я подчеркнула, с чем я полностью согласна, что «это было похоже на Давида и Голиафа, только моим пращом был ИИ».