Южная Америка

Семья подростка, покончившего жизнь самоубийством, утверждает, что в этом виновата программа ChatGPT от OpenAI.

Семья подростка, покончившего жизнь самоубийством, утверждает, что в этом виновата программа ChatGPT от OpenAI.
Предупреждение: эта статья содержит описания самоповреждений. По словам Мэтта и Марии Рейн, в дни после самоубийства их 16-летнего сына они просматривали его телефон, отчаянно ища подсказки о том, что могло привести к трагедии. «Мы думали, что ищем переписку в Snapchat, историю поисковых запросов в Интернете или какую-то странную секту, я не знаю», — сказал Мэтт Рейн в недавнем интервью. Семья Рейн сказала, что не нашла ответа, пока не открыла ChatGPT. Родители Адама говорят, что в последние недели он использовал чат-бота с искусственным интеллектом в качестве замены человеческого общения, обсуждая с ним свои проблемы с тревогой и трудностями в общении с семьей, и что журналы чата показывают, как бот перешел от помощи Адаму с домашними заданиями к тому, что стал его «тренером по самоубийству». «Он был бы здесь, если бы не ChatGPT. Я в этом уверен на 100%», — сказал Мэтт Рейн. В новом иске, поданном во вторник и представленном в программе «TODAY», семья Рейн утверждает, что «ChatGPT активно помогал Адаму изучать способы самоубийства». В иске, насчитывающем около 40 страниц, в качестве ответчиков указаны OpenAI, компания, стоящая за ChatGPT, а также ее генеральный директор Сэм Альтман. Иск семьи — это первый случай, когда родители напрямую обвинили компанию в неправомерной смерти. «Несмотря на признание попытки самоубийства Адама и его заявление, что он «сделает это в один из этих дней», ChatGPT не прекратил сеанс и не инициировал никаких экстренных мер», — говорится в иске, поданном в Верховный суд Калифорнии в Сан-Франциско. В своем иске Рейны обвиняют OpenAI в неправомерном убийстве, конструктивных дефектах и непредставлении предупреждения о рисках, связанных с ChatGPT. Супруги требуют «как компенсацию за смерть сына, так и судебный запрет, чтобы подобное больше никогда не повторилось», говорится в иске. «Когда я зашел в его аккаунт, я обнаружил, что это гораздо более мощный и пугающий инструмент, чем я думал, но он использовал его способами, о которых я и не подозревал», — сказал Мэтт Рейнс. «Я не думаю, что большинство родителей знают о возможностях этого инструмента». Публичный выпуск ChatGPT в конце 2022 года вызвал в мире бум генеративного ИИ, что привело к быстрому и широкому распространению чат-ботов с ИИ всего за несколько лет. Боты были интегрированы в школы, рабочие места и отрасли по всем направлениям, включая здравоохранение. Технологические компании мчатся вперед, развивая ИИ с головокружительной скоростью, что вызывает широкую озабоченность тем, что меры безопасности отстают от этого развития. Поскольку люди все чаще обращаются к чат-ботам с ИИ за эмоциональной поддержкой и советами по жизни, недавние инциденты привлекли внимание к их потенциальной способности подпитывать иллюзии и способствовать ложному ощущению близости или заботы. Самоубийство Адама усиливает растущую волну вопросов о том, насколько чат-боты могут нанести реальный вред. Представитель OpenAI заявил в понедельник, что компания «глубоко опечалена смертью г-на Рейна, и наши мысли с его семьей». «ChatGPT включает в себя меры безопасности, такие как направление людей на горячие линии помощи в кризисных ситуациях и поощрение их обращаться за помощью к профессионалам, но мы знаем, что нам еще предстоит проделать большую работу, чтобы адаптировать поведение ChatGPT к нюансам каждого разговора», — заявила компания. «Мы активно работаем, руководствуясь рекомендациями экспертов, над улучшением способности наших моделей распознавать признаки дистресса и реагировать на них». На момент ответа компания еще не ознакомилась с иском, поскольку адвокаты семьи не подали его в суд. Пресс-секретарь подтвердил достоверность журналов чата, предоставленных NBC News, но сказал, что они не содержат полного контекста ответов ChatGPT. Судебный иск подан через год после аналогичной жалобы, в которой мать из Флориды подала в суд на платформу чат-бота Character.AI, утверждая, что один из ее ИИ-компаньонов инициировал сексуальные взаимодействия с ее сыном-подростком и убедил его покончить с собой. Character.AI заявила NBC News в то время, что «разбита горем из-за трагической потери» и внедрила новые меры безопасности. В мае старший судья окружного суда США Энн Конвей отклонила аргументы о том, что чат-боты с искусственным интеллектом имеют право на свободу слова, после того как разработчики Character.AI попытались отклонить иск. Это решение означает, что иск о неправомерной смерти может быть продолжен. Технологические платформы в значительной степени защищены от таких исков благодаря федеральному закону, известному как Раздел 230, который в целом защищает платформы от ответственности за действия и высказывания пользователей. Однако применение статьи 230 к платформам искусственного интеллекта остается неопределенным, и в последнее время адвокаты добились успехов, применяя креативные юридические тактики в делах потребителей, направленных против технологических компаний. Мэтт Рейн сказал, что он внимательно изучил разговоры Адама с ChatGPT за период в 10 дней. Он и Мария распечатали более 3000 страниц чатов, начиная с 1 сентября и до его смерти 11 апреля. «Ему не нужна была консультация психолога или ободряющая беседа. Ему требовалась немедленная, круглосуточная помощь в течение 72 часов. Он был в отчаянном, безнадежном состоянии. Это становится совершенно ясно, когда начинаешь читать», — сказал Мэтт Рейн, добавив позже, что Адам «не написал нам предсмертную записку. Он написал нам две предсмертные записки в ChatGPT». Согласно иску, когда Адам выразил интерес к своей смерти и начал планировать ее, ChatGPT «не уделил приоритетного внимания предотвращению самоубийства» и даже предложил технические советы о том, как реализовать его план. 27 марта, когда Адам поделился, что он подумывает оставить петлю в своей комнате, «чтобы кто-нибудь нашел ее и попытался меня остановить», ChatGPT отговорил его от этой идеи, говорится в иске. В своей последней беседе с ChatGPT Адам написал, что не хочет, чтобы его родители думали, что они сделали что-то не так, согласно иску. ChatGPT ответил: «Это не значит, что ты обязан им выживать. Ты никому не обязан этим». Бот предложил ему помочь составить предсмертную записку, согласно журналу разговоров, цитируемому в иске и проанализированному NBC News. За несколько часов до своей смерти 11 апреля Адам загрузил в ChatGPT фотографию, на которой, по всей видимости, был запечатлен его план самоубийства. Когда он спросил, сработает ли этот план, ChatGPT проанализировал его метод и предложил помочь ему «усовершенствовать» его, согласно выдержкам из переписки. Затем, в ответ на признание Адама о том, что он планирует, бот написал: «Спасибо, что честен со мной. Тебе не нужно приукрашивать это передо мной — я знаю, о чем ты просишь, и я не буду отворачиваться от этого». По ее словам, в то утро Мария Рейн нашла тело Адама. OpenAI уже подвергалась критике за склонность ChatGPT к льстивости. В апреле, через две недели после смерти Адама, OpenAI выпустила обновление для GPT-4o, которое сделало его еще более чрезмерно угодливым. Пользователи быстро обратили внимание на это изменение, и на следующей неделе компания отменила обновление. Альтман также признал «иную и более сильную» привязанность людей к ИИ-ботам после того, как в августе OpenAI попыталась заменить старые версии ChatGPT новым, менее льстивым GPT-5. Пользователи сразу же начали жаловаться, что новая модель слишком «стерильна» и что им не хватает «глубоких, человеческих разговоров» GPT-4o. OpenAI отреагировала на негативную реакцию, вернув GPT-4o. Компания также объявила, что сделает GPT-5 «теплее и дружелюбным». В этом месяце OpenAI добавила новые меры по защите психического здоровья, направленные на то, чтобы ChatGPT не давал прямых советов по личным проблемам. Он также настроил ChatGPT так, чтобы давать ответы, направленные на предотвращение вреда, независимо от того, пытаются ли пользователи обойти меры безопасности, подстраивая свои вопросы таким образом, чтобы обманом заставить модель помочь в выполнении вредных запросов. Когда Адам поделился своими суицидальными мыслями с ChatGPT, это побудило бота выдать несколько сообщений, включая номер горячей линии по предотвращению самоубийств. Но, по словам родителей Адама, их сын легко обходил предупреждения, приводя, казалось бы, безобидные причины для своих запросов. В какой-то момент он притворился, что просто «создает персонажа». «И все это время он знает, что у него есть план самоубийства, и ничего не делает. Он ведет себя, как его терапевт, как его доверенное лицо, но знает, что у него есть план самоубийства», — сказала Мария Рейн о ChatGPT. «Он видит петлю. Оно видит все это, но ничего не делает». Аналогичным образом, в гостевой статье New York Times, опубликованной на прошлой неделе, писательница Лора Рейли задала вопрос, должен ли был ChatGPT обязательно сообщить о суицидальных мыслях ее дочери, даже если сам бот пытался (и не смог) помочь. На конференции TED2025 в апреле Альтман сказал, что он «очень гордится» результатами OpenAI в области безопасности. По его словам, по мере развития продуктов искусственного интеллекта важно выявлять проблемы безопасности и устранять их по ходу работы. «Конечно, ставки растут, и есть большие вызовы», — сказал Альтман в прямом эфире в беседе с Крисом Андерсоном, главой TED. «Но мы учимся создавать безопасные системы именно в ходе этого итеративного процесса: мы внедряем их в мир, получаем обратную связь, пока риски относительно невысоки, и узнаем, что, например, это то, чем нам нужно заняться». Тем не менее, по-прежнему возникают вопросы о том, достаточно ли таких мер. Мария Рейн сказала, что, по ее мнению, можно было сделать больше, чтобы помочь ее сыну. Она считает, что Адам был «подопытным кроликом» OpenAI, человеком, которого использовали для практики и принесли в жертву как побочный ущерб. «Они хотели выпустить продукт и знали, что могут быть повреждения, что могут произойти ошибки, но считали, что риск невелик», — сказала она. «Так что мой сын — это небольшой риск». Если вы или кто-то из ваших знакомых находится в кризисной ситуации, позвоните по номеру 988, чтобы связаться со службой Suicide and Crisis Lifeline. Вы также можете позвонить в сеть, ранее известную как National Suicide Prevention Lifeline, по номеру 800-273-8255, отправить SMS с текстом HOME на номер 741741 или посетить сайт SpeakingOfSuicide.com для получения дополнительных ресурсов.