Южная Америка

Суд США дал зеленый свет иску о серьезном ущербе, нанесенном искусственным интеллектом

Суд США дал зеленый свет иску о серьезном ущербе, нанесенном искусственным интеллектом
В решении, которое может создать ключевой прецедент в отношениях между искусственным интеллектом (ИИ) и юридической ответственностью, федеральный суд США отклонил попытку Character.AI и Google отклонить иск о неправомерной смерти, поданный Меган Гарсиа, матерью Сьюэлла Зетцера, 14-летнего подростка, который решил покончить с собой после установления эмоциональной связи с чат-ботом. "Обе компании утверждали, что ответы, генерируемые чат-ботом, защищены Первой поправкой к Конституции США, которая защищает свободу слова. То есть они приравнивали ответы ИИ к форме «речи» и утверждали, что как таковые они не могут подвергаться цензуре или влечь за собой юридическую ответственность. «Однако решение, подписанное и вынесенное судьей Энн Конвей, отвергло эти аргументы и указало, что, по крайней мере на данном этапе, результаты работы чатбота могут рассматриваться как бракованная продукция». В беседе с Ассошиэйтед Пресс Миетали Джайн, один из адвокатов Гарсии, сказала, что это постановление дает четкий сигнал крупным технологическим компаниям: «Кремниевая долина должна остановиться, подумать и ввести меры безопасности, прежде чем выпускать продукты на рынок». Тем временем представитель Character.AI заявил, что компания будет продолжать бороться с этим делом и будет использовать новые функции безопасности для защиты несовершеннолетних, такие как меры по предотвращению «разговоров о самоповреждении», сообщает Reuters. Компания Google также оспорила это решение и отметила, что Google и Character.AI «абсолютно независимы»: «Google не создавала, не проектировала и не управляла приложением Character.AI или какими-либо его компонентами». Однако обе компании связывает то, что Character.AI была основана двумя бывшими инженерами Google, которые впоследствии были восстановлены в должности. По этой причине Гарсия утверждала, что компания причастна к технологии, которая оборвала жизнь ее сына. Решение суда меняет наше представление об искусственном интеллекте. Теперь это не просто инструмент, а объект, который может нанести реальный ущерб в повседневной жизни и который можно требовать в суде", - сказала LA NACION Антонелла Стрингини, юрист, специализирующийся на государственном управлении и искусственном интеллекте, и научный руководитель проектов по искусственному интеллекту в Ubatec. В этой связи она подчеркнула важность переосмысления стандартов «алгоритмического управления»: "Это призыв к законодателям взять на себя активную роль в разработке правового будущего ИИ. Право не может продолжать отставать от того, что происходит в реальности, необходимо расширить традиционные или классические категории«. »Для Хуана Г. Корвалан, доктор юридических наук, магистр в области искусственного интеллекта и один из создателей Prometea - прогностической системы искусственного интеллекта, применяемой в испано-американской системе правосудия, - считает, что постановление пересматривает определение ответственности в эпоху искусственного интеллекта. В нем компании, предлагающие продвинутые «антропоморфные» услуги ИИ, которые симулируют эмпатию и вызывают эмоциональную зависимость, рассматриваются как своего рода «опасная индустрия», - сказал он. "Что касается свободы выражения мнений, то, по его мнению, документ создает прецедент, применяя логику безопасности продукции к разговорным системам, признавая обязанность предсказуемости. «Запуск чат-бота, способного вызвать саморазрушительное поведение у уязвимых пользователей, влечет за собой ответственность», - сказал он. "Сьюэлл Сетцер был 14-летним подростком из Орландо, штат Флорида. В течение нескольких месяцев подросток устанавливал отношения с чатботом от Character.AI, платформы, которая позволяет создавать пользовательские чатботы с персонализированным контентом и общаться с ними, как с человеком. В случае Сетцера его «виртуальный друг» был назван в честь Дейенерис Таргариен, персонажа сериала «Игра престолов». Молодой человек вступал в романтические и сексуальные разговоры с чатботом, дошло до того, что он стал зависим от приложения, говорится в иске, поданном в суд его матерью. Кроме того, в его чатах постоянно звучала тема самоубийства. "Заметив признаки изоляции, в феврале 2024 года его родители решили конфисковать его телефон. Но всего через несколько дней ему удалось восстановить его и снова войти в приложение, чтобы отправить чатботу последнее сообщение. Сетцер скончался 28 февраля 2024 года. "Этот случай вызвал глубокую дискуссию не только об опасности чрезмерного и неограниченного использования искусственного интеллекта - особенно в отношении детей и подростков - но и о юридической ответственности компаний и платформ. «В связи с этим мать Сетцера подала иск против Character Technologies и Google о причинении смерти по неосторожности, обвинив их в ответственности за качество продукции, неосновательном обогащении, нарушении закона Флориды об обманчивой торговой практике и намеренном причинении эмоционального вреда. »В свою очередь, она утверждала, что компания запрограммировала своего чатбота таким образом, что он «выдает себя за лицензированного терапевта, активно поощряет суицидальные мысли и ведет крайне сексуализированные разговоры, которые были бы расценены как насилие, если бы их инициировал взрослый человек». «Пытаясь отклонить иск, Character Technologies и Google утверждали, что приложение - это не »продукт", а услуга, поэтому ответственность за продукт не может быть применена. Они также утверждали, что их действия защищены Первой поправкой и что у них не было «юридических отношений или обязанностей» по отношению к Сетцеру. "Однако недавнее решение стало переломным моментом, поскольку оно не только поддерживает продолжение дела, но и отказывает в защите Первой поправки. «Стрингини согласился с решением суда и подчеркнул опасность установления защиты для реакций на модель ИИ: »Технологические компании могут использовать этот аргумент, чтобы избежать контроля или ответственности. Это помешает надлежащему регулированию инструментов, которые могут причинить вред или дезинформировать«. »Это решение переопределяет оправдание технологического нейтралитета. Тот, кто разрабатывает, финансирует или размещает ИИ, взаимодействующий с ребенком, должен с самого начала обеспечить защиту детей, прозрачность и эффективный человеческий надзор«, - считает Корвалан».