Судебная система Аляски создала чат-бота на базе искусственного интеллекта. Все прошло не гладко.
Распоряжаться вещами близкого человека после его смерти никогда не бывает легко. Но, как обнаружили суды штата Аляска, неточный или вводящий в заблуждение чат-бот с искусственным интеллектом может легко усугубить ситуацию. Более года судебная система Аляски разрабатывала новаторский генеративный чат-бот с искусственным интеллектом под названием Alaska Virtual Assistant (AVA), чтобы помочь жителям разобраться в запутанной системе форм и процедур, связанных с завещанием, то есть судебным процессом передачи имущества умершего человека. Однако то, что должно было стать быстрым прорывом в области искусственного интеллекта, направленным на расширение доступа к правосудию, превратилось в затянувшееся, длительное путешествие, сопровождаемое ложными стартами и ложными ответами. AVA «должен был быть трехмесячным проектом», — сказала Обри Соуза, консультант Национального центра государственных судов (NCSC), которая работала над AVA и была свидетелем его эволюции. «Сейчас прошло уже больше года и трех месяцев, но все это из-за тщательной проверки, которая была необходима для того, чтобы все было сделано правильно». Разработка этого индивидуального решения на базе искусственного интеллекта продемонстрировала трудности, с которыми сталкиваются государственные органы по всей территории США при применении мощных систем искусственного интеллекта к реальным проблемам, где правдивость и надежность имеют первостепенное значение. «В таком проекте мы должны быть точны на 100 %, а с этой технологией это действительно сложно», — сказала Стейси Марз, административный директор судебной системы Аляски и одна из руководителей проекта AVA. «Я шучу со своими сотрудниками, занимающимися другими технологическими проектами, что мы не можем ожидать, что эти системы будут идеальными, иначе мы никогда не сможем их внедрить. Как только мы получим минимально жизнеспособный продукт, давайте выпустим его на рынок, а затем будем его улучшать по мере получения новых знаний». Но Марз считает, что к этому чат-боту должны предъявляться более высокие требования. «Если люди будут использовать информацию, полученную из чат-бота, и действовать на ее основе, а она окажется неточной или неполной, они действительно могут понести ущерб. Это может нанести невероятный вред этому человеку, его семье или имуществу». Хотя многие местные государственные учреждения экспериментируют с инструментами искусственного интеллекта для различных целей, от помощи жителям в подаче заявлений на получение водительских прав до ускорения обработки муниципальными служащими заявок на жилищные пособия, недавний отчет Deloitte показал, что менее 6 % специалистов местных органов власти считают искусственный интеллект приоритетным инструментом для предоставления услуг. Опыт AVA демонстрирует барьеры, с которыми сталкиваются государственные учреждения при попытках использовать ИИ для повышения эффективности или улучшения качества обслуживания, включая опасения по поводу надежности и достоверности в условиях высоких рисков, а также вопросы о роли человеческого контроля в условиях быстро меняющихся систем ИИ. Эти ограничения противоречат сегодняшнему безудержному ажиотажу вокруг ИИ и могут помочь объяснить большие расхождения между бурным ростом инвестиций в ИИ и ограниченным внедрением ИИ. Марз представлял проект AVA как передовую и недорогую версию телефонной службы помощи по вопросам семейного права Аляски, в которой работают сотрудники суда и которая предоставляет бесплатные консультации по юридическим вопросам, от развода до защитных ордеров в связи с насилием в семье. «Наша цель заключалась в том, чтобы с помощью чат-бота воспроизвести услуги, которые мы предоставляем с помощью человеческого посредника», — сказал Марз NBC News, имея в виду команду юристов, технических экспертов и консультантов AVA из NCSC. «Мы хотели создать аналогичный опыт самопомощи, когда кто-то может поговорить с вами и сказать: «Вот в чем я нуждаюсь, вот в какой ситуации я нахожусь»». Хотя NCSC предоставил первоначальный грант для запуска AVA в рамках своей растущей работы в области ИИ, чат-бот был технически разработан Томом Мартином, юристом и профессором права, который основал компанию LawDroid, специализирующуюся на ИИ в области права, и разрабатывает юридические инструменты ИИ. Описывая сервис AVA, Мартин выделил многие важные решения и соображения, которые входят в процесс проектирования, такие как выбор и формирование личности системы ИИ. Многие комментаторы и исследователи показали, как определенные модели или версии систем ИИ ведут себя по-разному, почти как будто они принимают на себя разные личности. Исследователи и даже пользователи могут изменять эти личности с помощью технических настроек, как обнаружили многие пользователи ChatGPT в начале этого года, когда сервис OpenAI колебался между личностями, которые были либо восторженными и льстивыми, либо эмоционально отстраненными. Другие модели, такие как Grok от xAI, известны более свободными ограничениями и большей готовностью обсуждать спорные темы. «Разные модели имеют почти разные типы личности», — сказал Мартин NBC News. «Некоторые из них очень хорошо следуют правилам, в то время как другие не так хороши в этом и как бы хотят доказать, что они самые умные в комнате». « Для юридического применения это нежелательно, — сказал Мартин. — Вы хотите, чтобы она следовала правилам, но при этом была умной и могла объяснять свои действия простым языком». Даже такие черты, которые в других случаях были бы приветствуемы, становятся более проблематичными, когда речь идет о таких важных темах, как наследственное право. Работая с Мартином, Суза из NCSC отметил, что ранние версии AVA были слишком эмпатичными и раздражали пользователей, которые, возможно, активно скорбели и просто хотели получить ответы о процессе оформления наследства: «В ходе тестирования все пользователи говорили: «Я устал от того, что все в моей жизни говорят мне, что сожалеют о моей утрате». «Поэтому мы в основном удалили такие соболезнования, потому что от чат-бота с ИИ вам не нужно еще одно», — сказал Суза. Помимо поверхностного тона и любезностей системы, Мартину и Суза пришлось столкнуться с серьезной проблемой галлюцинаций, или случаев, когда системы искусственного интеллекта с уверенностью делятся ложной или преувеличенной информацией. «У нас были проблемы с галлюцинациями, независимо от модели, когда чат-бот не должен был использовать ничего, кроме своей базы знаний», — сказал Суза NBC News. «Например, когда мы спросили его: «Где я могу получить юридическую помощь?», он ответил: «В Аляске есть юридическая школа, посмотрите в сети выпускников». Но в Аляске нет юридической школы». Мартин проделал большую работу, чтобы чат-бот ссылался только на соответствующие разделы документов судебной системы Аляски, а не проводил широкий поиск в Интернете. В целом по отрасли искусственного интеллекта галлюцинации ИИ со временем уменьшились и сегодня представляют меньшую угрозу, чем даже несколько месяцев назад. Многие компании, разрабатывающие приложения ИИ, такие как поставщик ИИ-агентов Manus, который недавно был приобретен Meta за более чем 2 миллиарда долл., подчеркивают надежность своих услуг и включают несколько уровней проверки на основе ИИ, чтобы обеспечить точность результатов. Чтобы оценить точность и полезность ответов AVA, команда AVA разработала набор из 91 вопроса по темам наследственного права, задавая чат-боту, например, какой бланк наследственного права будет уместно подать, если пользователь хочет переоформить право собственности на автомобиль своего умершего родственника на свое имя. Однако, по словам Джинни Сато, директора по доступу к судебным услугам судебной системы Аляски, тест из 91 вопроса оказался слишком трудоемким для проведения и оценки, учитывая ставки и необходимость проверки человеком. Поэтому, по словам Сато, команда составила окончательный список из 16 тестовых вопросов, в который вошли «некоторые вопросы, на которые AVA ответила неправильно, некоторые сложные вопросы и некоторые довольно простые вопросы, которые, по нашему мнению, могут часто задаваться AVA». Еще одним важным вопросом для Сато и команды AVA является стоимость. Новые итерации и версии систем искусственного интеллекта привели к резкому снижению стоимости их использования, что команда AVA считает ключевым преимуществом инструментов искусственного интеллекта, учитывая ограниченный бюджет судов. Мартин рассказал NBC News, что при одной технической настройке 20 запросов AVA будут стоить всего около 11 центов. «Я руководствуюсь миссией, и для меня важно оказывать влияние, помогая людям во всем мире», — сказал Мартин. «Чтобы выполнить эту миссию, конечно, стоимость имеет чрезвычайно важное значение». Однако постоянно меняющиеся и совершенствующиеся системы, которые лежат в основе ответов AVA, такие как семейство моделей GPT от OpenAI, означают, что административная команда, вероятно, будет вынуждена постоянно и регулярно контролировать AVA на предмет любых изменений в поведении или точности. «Мы предполагаем, что нам нужно будет проводить регулярные проверки и, возможно, обновлять подсказки или модели по мере появления новых и выхода из эксплуатации старых. Это определенно то, чем нам нужно будет заниматься, а не просто сидеть сложа руки», — сказал Мартин. Несмотря на многочисленные заминки, AVA теперь планируется запустить в конце января, если все пойдет по плану. Со своей стороны, Марз по-прежнему оптимистично оценивает потенциал AVA в плане оказания помощи жителям Аляски в доступе к системе наследственного права, но более трезво смотрит на текущие ограничения ИИ. «Мы немного изменили наши цели в этом проекте», — сказала Марз. «Мы хотели воспроизвести то, чем наши консультанты в центре самопомощи могут поделиться с людьми. Но мы не уверены, что боты могут работать таким образом из-за некоторых неточностей и неполноты. Но, возможно, с увеличением количества обновлений модели ситуация изменится, и уровень точности и полноты повысится». «Это было очень трудоемко», — добавил Марз, несмотря на «весь ажиотаж вокруг генеративного ИИ и то, что все говорят, что это революционизирует самопомощь и демократизирует доступ к судам. На самом деле это довольно большая задача».
