Правило CNJ разрешает принимать решения, написанные искусственным интеллектом и рассмотренные судьей

Во вторник (18) Национальный совет юстиции (CNJ) утвердил новые правила использования технологий искусственного интеллекта (ИИ) в судебной системе, включая положение о том, что проекты судебных решений могут быть написаны с помощью генеративных инструментов ИИ. После написания такие проекты должны быть «интерпретированы, проверены и рассмотрены судьей», говорится в недавно принятом постановлении. Несмотря на то что проект может быть создан искусственно, судья, рассматривающий дело, «будет по-прежнему нести полную ответственность за принятые решения и содержащуюся в них информацию». «Важно подчеркнуть, что никого не будет судить робот», - заверяет член совета Луис Фернандо Бандейра де Мелло, который руководил разработкой правила. Среди приоритетов - «смягчение и предотвращение дискриминационных предубеждений», причем ИИ запрещено использовать, например, «для классификации или ранжирования физических лиц на основе их поведения или социального положения» или «для оценки личностных качеств, характеристик или поведения физических лиц или групп физических лиц в целях оценки или прогнозирования совершения преступлений». Новое правило стало результатом работы рабочей группы, созданной в прошлом году CNJ для обсуждения использования искусственного интеллекта в бразильских судах и обновления первой резолюции по этому вопросу, опубликованной в 2020 году, в которой не упоминалось о возможности составления судебных решений с использованием искусственного интеллекта. Согласно резолюции CNJ, «необходимо обновить эти правила, чтобы включить в них новые технологии, особенно те, которые известны как генеративный искусственный интеллект». В постановлении генеративный искусственный интеллект определяется как любая система, «специально разработанная для создания или значительного изменения, с различными уровнями автономности, текста, изображений, аудио, видео или программного кода». Речь идет об инструментах типа чатботов, способных имитировать разговоры и генерировать тексты, похожие на человеческие, на основе массированной обработки большого количества данных. Среди наиболее известных таких инструментов - ChatGPT от американской компании OpenIA и DeepSeek, разработанный в Китае.Однако правило CNJ предусматривает, что собственные чат-боты могут разрабатываться, обучаться и внедряться самими судами, используя базы данных и учитывая специфику каждого учреждения.В настоящее время, согласно данным панели, которую ведет CNJ, судебная система имеет не менее 140 проектов по внедрению ИИ в судах. Из них чуть более десятка посвящены инструментам, помогающим составлять процессуальные документы. Основными областями применения 63 систем, которые уже используются в 62 судах, являются поиск и группировка похожих дел и классификация документов.Одна из единственных систем генеративного ИИ, которая уже работает, - MarIA, запущенная в декабре прошлого года Федеральным Верховным судом (STF), которая помогает составлять процессуальные документы.Однако на начальном этапе использование этого инструмента в Верховном суде ограничивается подведением итогов голосования и составлением отчетов. MarIA также может предлагать ответы на первоначальные ходатайства только по одному конкретному виду дел - конституционной жалобе. MarIA - это решение, разработанное в партнерстве с компаниями в этой области, которые были привлечены Верховным судом путем проведения тендера. Постановление CNJ предусматривает, что суды могут разрабатывать собственные инструменты или нанимать их из числа доступных на рынке. Модели должны использоваться судьями и гражданскими служащими, «предпочтительно через доступ, который предоставляется, обеспечивается и контролируется судами», но если суд не предлагает «корпоративное решение», правило разрешает нанимать чат-ботов самим судьям, если они соответствуют критериям риска, установленным CNJ. Правило также предусматривает создание Национального комитета по искусственному интеллекту в судебной системе, состоящего из 15 членов, включая представителей Бразильской ассоциации адвокатов (OAB), Прокуратуры и Офиса государственного защитника. Комитет уполномочен, например, «оценивать удобство использования, по должности или по провокации, решений ИИ, доступных на рынке, как бесплатных, так и нет, которые могут использоваться судьями и государственными служащими». Именно комитет должен оценивать и пересматривать классификацию рисков при использовании ИИ. В соответствии с действующими правилами, например, использование ИИ в делах, связанных с угрозой фундаментальным правам, считается высоким риском. Резолюция, одобренная CNJ, запрещает использование генеративного ИИ, так называемых крупномасштабных языковых моделей, в случае разбирательств, содержащих конфиденциальную информацию или проводимых в тайне.