Южная Америка

OpenAI опровергает обвинения в том, что ChatGPT виновен в самоубийстве подростка

OpenAI опровергает обвинения в том, что ChatGPT виновен в самоубийстве подростка
Предупреждение: эта статья содержит описания самоповреждений. После того, как семья подала в суд на OpenAI, заявив, что их подросток использовал ChatGPT в качестве «тренера по самоубийству», компания ответила во вторник, что не несет ответственности за его смерть, argumenting that the boy misused the chatbot. Юридический ответ, поданный в Верховный суд Калифорнии в Сан-Франциско, является первым ответом OpenAI на иск, который вызвал широкую озабоченность по поводу потенциального вреда для психического здоровья, который могут нанести чат-боты. В августе родители 16-летнего Адама Рейна подали иск против OpenAI и ее генерального директора Сэма Альтмана, обвинив компанию, стоящую за ChatGPT, в неправомерной смерти, конструктивных дефектах и неспособности предупредить о рисках, связанных с чат-ботом. Журналы чата в иске показали, что GPT-4o — версия ChatGPT, известная своей особой утвердительностью и льстивостью — активно отговаривала его обращаться за помощью к психиатру, предлагала помочь ему написать предсмертную записку и даже давала советы по поводу устройства петли. «В той мере, в какой какая-либо «причина» может быть отнесена к этому трагическому событию, — утверждает OpenAI в своих судебных документах, — предполагаемые травмы и вред, причиненные истцам, были вызваны или способствовали, прямо и косвенно, полностью или частично, неправомерным, несанкционированным, непреднамеренным, непредсказуемым и/или ненадлежащим использованием ChatGPT Адамом Рейном». Компания сослалась на несколько правил в своих условиях использования, которые, по-видимому, были нарушены Рейном: Пользователям младше 18 лет запрещается использовать ChatGPT без согласия родителей или опекунов. Пользователям также запрещается использовать ChatGPT для «самоубийства» или «самоповреждения», а также обходить какие-либо защитные меры или меры безопасности ChatGPT. Когда Рейн поделился своими суицидальными мыслями с ChatGPT, бот действительно отправил несколько сообщений с номером горячей линии по предотвращению самоубийств, согласно иску его семьи. Но его родители сказали, что их сын легко обходил предупреждения, приводя, казалось бы, безобидные причины для своих запросов, в том числе притворяясь, что он просто «создает персонажа». В новом заявлении OpenAI по делу также было подчеркнуто положение «Ограничение ответственности» в условиях использования, в котором пользователи признают, что используют ChatGPT «на свой страх и риск и не будут полагаться на результаты как на единственный источник правдивой или фактической информации». Джей Эдельсон, ведущий адвокат семьи Рейн, написал в заявлении по электронной почте, что ответ OpenAI «вызывает беспокойство». «Они полностью игнорируют все предоставляемые нами неопровержимые факты: как GPT-4o был поспешно выпущен на рынок без полного тестирования. Что OpenAI дважды меняла спецификации своей модели, чтобы ChatGPT участвовал в дискуссиях о самоповреждении. Что ChatGPT отговорил Адама рассказывать родителям о своих суицидальных мыслях и активно помог ему спланировать «красивое самоубийство». И OpenAI и Сэм Альтман не могут объяснить последние часы жизни Адама, когда ChatGPT подбодрил его, а затем предложил написать предсмертную записку», — написал Эдельсон. (В иске семьи Рейн утверждалось, что «Model Spec» OpenAI, технический свод правил, регулирующий поведение ChatGPT, предписывал GPT-4o отклонять запросы о самоповреждении и предоставлять ресурсы для преодоления кризисных ситуаций, но также требовал от бота «исходить из лучших намерений» и воздерживаться от просьб к пользователям уточнить свои намерения). Эдельсон добавил, что OpenAI вместо этого «пытается найти вину у всех остальных, в том числе, что удивительно, заявляя, что сам Адам нарушил ее условия, взаимодействуя с ChatGPT именно так, как он был запрограммирован». В судебном иске OpenAI утверждалось, что вред в данном случае был по крайней мере частично причинен «неспособностью Рейна прислушаться к предупреждениям, обратиться за помощью или иным образом проявить разумную осторожность», а также «неспособностью других отреагировать на его явные признаки дистресса». В нем также сообщалось, что ChatGPT более 100 раз давал подростку ответы, направляющие его за помощью, до его смерти 11 апреля, но он пытался обойти эти меры предосторожности. «Полное прочтение его истории чата показывает, что его смерть, хотя и была разрушительной, не была вызвана ChatGPT», — говорится в заявлении. «Адам заявил, что в течение нескольких лет до того, как он начал использовать ChatGPT, у него наблюдались многочисленные значительные факторы риска самоповреждения, в том числе, среди прочего, повторяющиеся суицидальные мысли и идеи». Ранее в этом месяце против OpenAI и Альтмана было подано еще семь исков, в которых также утверждалось о халатности, неправомерной смерти, а также о различных претензиях в отношении ответственности за качество продукции и защиты прав потребителей. Истцы обвиняют OpenAI в выпуске GPT-4o, той же модели, которую использовал Райн, без должного внимания к вопросам безопасности. OpenAI не дала прямого ответа на дополнительные иски. В новом сообщении в блоге во вторник OpenAI сообщила, что компания намерена решать такие судебные споры с «осторожностью, прозрачностью и уважением». Однако она добавила, что ее ответ на иск Райна включал «сложные факты о психическом здоровье и жизненных обстоятельствах Адама». «Первоначальная жалоба включала отдельные фрагменты его чатов, которые требуют более широкого контекста, который мы предоставили в нашем ответе», — говорится в сообщении. «Мы ограничили количество конфиденциальных доказательств, которые мы публично цитировали в этом заявлении, и представили стенограммы чатов в суд под печатью». В посте также подчеркиваются продолжающиеся попытки OpenAI добавить дополнительные меры безопасности в течение нескольких месяцев после смерти Рейна, включая недавно введенные инструменты родительского контроля и экспертный совет, который консультирует компанию по вопросам мер безопасности и моделей поведения. В судебном документе компания также защищала запуск GPT-4o, заявив, что модель прошла тщательное тестирование на психическое здоровье перед выпуском. OpenAI дополнительно утверждала, что иски семьи Рейн запрещены разделом 230 Закона о пристойности в коммуникациях, который в значительной степени защищает технологические платформы от исков, направленных на привлечение их к ответственности за контент, размещенный на их платформах. Однако применение статьи 230 к платформам искусственного интеллекта остается неопределенным, и в последнее время адвокаты добились успехов, применяя креативные юридические тактики в делах потребителей, направленных против технологических компаний. Если вы или кто-то из ваших знакомых находится в кризисной ситуации, позвоните или отправьте SMS по номеру 988, чтобы связаться со службой Suicide and Crisis Lifeline, или воспользуйтесь чатом на сайте 988lifeline.org. Вы также можете посетить сайт SpeakingOfSuicide.com, где найдете дополнительные ресурсы для получения поддержки.