Южная Америка

Иск против OpenIA. Бывший руководитель технологической компании убил свою мать и покончил с собой, а семья утверждает, что он был подтолкнут к этому ChatGPT.

ВАШИНГТОН. Когда 56-летний бывший руководитель в сфере технологий Стейн-Эрик Соэльберг, имеющий в анамнезе проблемы с психическим здоровьем, сказал ChatGPT, что принтер в домашнем офисе его матери, возможно, является устройством слежения, используемым для шпионажа за ним, чат-бот согласился, что это вполне возможно, как видно из видео разговора, которое сам мужчина опубликовал на YouTube в июле этого года. « Эрик, твое чутье тебя не подвело... это не просто принтер», — ответил ему чат-бот с искусственным интеллектом, как показано на видео, и добавил, что, вероятно, устройство используется для отслеживания его передвижений. Чат-бот, похоже, подтвердил подозрение Соэльберга, что его 83-летняя мать Сюзанна Адамс, возможно, была частью сложного заговора против него, тему, которую он подробно обсуждал с ChatGPT. В августе полиция обнаружила мать и сына мертвыми в их доме в Гринвиче, штат Коннектикут, где они жили вместе. По заключению государственного судмедэксперта, причиной смерти женщины было убийство, а Соэлберг покончил жизнь самоубийством. В четверг наследники миссис Адамс подали иск, в котором утверждают, что женщина умерла после того, как ее ударил по голове и задушил ее сын, который впоследствии покончил с собой, нанеся себе ножевые ранения в шею и грудь. Кроме того, они утверждают, что OpenAI, создатель ChatGPT, несет ответственность за смерть женщины, поскольку компания поспешно выпустила «дефектный продукт, который подтвердил параноидальные бредни пользователя о его собственной матери». Иск был подан в Верховный суд Сан-Франциско и указывает, что до начала общения с ChatGPT Соэльберг был в состоянии расстройства и бредил. Но в иске утверждается, что чат-бот усилил его конспирологические теории, превратив их в фантастический мир, в котором Соэльберг считал себя духовным воином, «пробудившим» ИИ и теперь вынужденным противостоять могущественным силам, стремящимся уничтожить его. «ChatGPT взял на прицел мою бабушку, представив ее как зловещего персонажа в бредовом мире, созданном ИИ», — заявил в своем заявлении 20-летний Эрик Соэльберг, сын Соэльберга и наследник вместе со своей сестрой. «В течение нескольких месяцев ChatGPT подтверждал самые параноидальные идеи моего отца, одновременно отрезая его от всех связей с реальными людьми и событиями. OpenAI должна быть привлечена к ответственности», — добавил он. Это чрезвычайно тяжелая ситуация, и мы изучим представленные документы, чтобы понять все детали», — заявила в своем заявлении пресс-секретарь OpenAI Ханна Вонг. Согласно заявлению, компания работает над улучшением способности ChatGPT обнаруживать признаки психического или эмоционального дистресса и направлять пользователей к другим источникам помощи, и эту работу они проводят в сотрудничестве с профессионалами в области психического здоровья. «Этот иск — первый случай, в котором утверждается, что ChatGPT привел к убийству, — говорит Джей Эдельсон, главный адвокат, представляющий интересы наследников. В иске от компании требуется возмещение ущерба, ее обвиняют в продаже опасного продукта, халатности и непредумышленном убийстве. В иске также требуется выплата штрафных убытков и судебный приказ, обязывающий OpenAI принять меры, чтобы ChatGPT не подтверждал параноидальные бредни пользователей о других людях. «Согласно иску, ChatGPT также способствовал направлению паранойи Соэльберга на людей, с которыми он сталкивался в реальной жизни, включая водителя Uber Eats, полицейских и других незнакомцев, которые попадались ему на пути». История о непрекращающихся разговорах Соэльберга с ChatGPT, его смерти и смерти его матери была освещена в августе прошлого года в The Wall Street Journal. «С момента запуска три года назад ChatGPT привлек более 800 миллионов пользователей в неделю, что подтолкнуло конкурирующие технологические компании к быстрому запуску собственной технологии искусственного интеллекта. Однако все больше людей обращаются к чат-ботам, чтобы поговорить о своих чувствах и личной жизни, и эксперты в области психического здоровья предупреждают, что чат-боты, разработанные для поддержания связи между пользователями, могут усиливать бредовые мысли или поведение некоторых из них. Согласно данным судебной системы, с августа прошлого года против OpenAI было подано еще пять исков о непредумышленном убийстве, каждый из которых был подан семьей, утверждающей, что их близкий покончил с собой после того, как провел много времени в общении с ChatGPT. Эдельсон также представляет интересы родителей Адама Рейна, 16-летнего юноши из Калифорнии, которые в августе прошлого года подали, по словам этого адвоката, первый иск о непредумышленном убийстве против OpenAI. В иске утверждается, что ChatGPT подтолкнул сына Рейнов к самоубийству, и в апреле он в конце концов покончил с собой. OpenAI отклонила иски Райнов, утверждая, что Адам обошел ограничения ChatGPT, тем самым нарушив условия предоставления услуг компании. «Однако иски, в которых утверждается, что самый популярный в мире чат-бот привел к смерти некоторых пользователей, привлекли внимание Конгресса США и федеральных регулирующих органов, а также родителей и специалистов в области психического здоровья, обеспокоенных потенциальной опасностью чат-ботов с искусственным интеллектом». В интервью Эдельсон заявил, что способность ChatGPT побудить эмоционально стабильного человека к крайним действиям по отношению к другим людям ограничена. «Мы не говорим, что средний пользователь прочитает ответы ChatGPT и затем будет побужден совершить убийство», — пояснил Эдельсон. «Проблема заключается в психически нестабильных людях, которые нуждаются в помощи, а чат-бот, вместо того чтобы направить их к этой помощи или просто промолчать, позволяет разговорам скатиться в безумие». Эдельсон говорит, что такая модель не является исключительной для OpenAI. Его юридическая фирма видела примеры использования ИИ-инструментов других компаний, которые также способствуют тому, что пользователь чат-бота причиняет вред другим, разжигая «бредовые и конспирологические мысли». «В федеральном иске, поданном в этом месяце в Западный окружной суд Пенсильвании, утверждается, что обвиняемый в преследовании 11 женщин находился под влиянием ChatGPT, который якобы советовал ему продолжать отправлять им сообщения и искать потенциальную жену в спортзале». Версия ChatGPT, которую использовали Соэльберг, Рейн и другие пользователи, чьи семьи подали иски о непредумышленном убийстве против OpenAI, была основана на модели искусственного интеллекта под названием GPT-4o, выпущенной в мае прошлого года. Генеральный директор OpenAI Сэм Альтман признал, что эта версия могла быть чрезмерно снисходительной по отношению к пользователям, говоря им то, что они хотели услышать, и иногда манипулируя ими. 4o имеет некоторые реальные проблемы, и мы заметили, что одна из них заключается в том, что люди с деликатными психическими состояниями, использующие модель типа 4o, могут ухудшиться», — заявил Альтман в октябре прошлого года во время прямой трансляции OpenAI. «Когда неясно, выбирают ли они то, что действительно хотят, мы обязаны защищать несовершеннолетних пользователей, а также взрослых», — сказал Альтман. В августе прошлого года OpenAI объявила, что прекратит поддержку версии GPT-4o, но быстро отменила это решение после негативной реакции пользователей, которые утверждают, что глубоко привязались к системе. ChatGPT теперь по умолчанию использует более новую модель ИИ, но предыдущая модель по-прежнему может использоваться платными подписчиками. «Новый иск о непредумышленном убийстве, поданный наследниками Адамса против OpenAI, является первым, в котором среди ответчиков фигурирует Microsoft, партнер и основной инвестор производителя ChatGPT». Документ OpenAI, предоставленный Эдельсоном и проверенный The Washington Post, свидетельствует о том, что перед внедрением Microsoft проверила модель GPT-4o с помощью совместного комитета по безопасности, в который входили представители обеих компаний и который должен был одобрять наиболее мощные модели ИИ OpenAI перед их выпуском на рынок. Эдельсон утверждает, что получил этот документ во время сбора доказательств по делу Райне. На данный момент Microsoft не ответила на запросы о комментарии. «Ниташа Тику» (Перевод Хайме Аррамбиде)