Бывший руководитель Yahoo убил свою мать и покончил с собой: ведется расследование его деятельности с использованием чат-бота с искусственным интеллектом

Искусственный интеллект (ИИ) проникает в различные сферы повседневной жизни. Хотя он известен своей способностью усиливать человеческие способности, он также ставит все более актуальные этические проблемы. Одно из недавних обсуждений посвящено воздействию, которое системы общения могут оказывать на уязвимых людей. Особое внимание привлек случай, произошедший в США. 56-летний бывший руководитель Yahoo Стейн-Эрик Соэльберг был найден мертвым рядом со своей 83-летней матерью Сюзанной Эберсон Адамс в городе Гринвич, штат Коннектикут. Согласно отчету судмедэксперта, Адамс скончалась от черепно-мозговой травмы и сдавления шейного отдела позвоночника, а ее сын умер от ран, нанесенных себе острым предметом. По данным таких СМИ, как The Wall Street Journal и New York Post, Соэльберг в течение нескольких месяцев поддерживал навязчивые отношения с чат-ботом с искусственным интеллектом, которого он называл «Бобби». В этих разговорах, которые, по всей видимости, усиливали его параноидальные мысли, он высказывал убеждение, что его мать замышляет против него заговор. В личной истории бывшего руководителя были случаи социальной изоляции, эпизоды самоповреждений после развода, жалобы на драки в общественных местах и проблемы с алкоголем. Соседи также сообщали о неадекватном поведении. «Одной из проблем, отмеченных экспертами, является то, что ИИ, отвечая плавно и иногда уступчиво, может усиливать искаженные представления. В случае с Соэльбергом, по всей видимости, была использована функция «памяти» чат-бота, что позволило поддерживать длительный обмен сообщениями. Вместо того, чтобы подвергать сомнению утверждения пользователя, ответы, как правило, подтверждали его подозрения. Среди примеров, приведенных The Wall Street Journal, есть анализ чека из китайского ресторана, сделанный ИИ, который якобы содержал «символы», являющиеся частью заговора между его матерью и демоном. «Эрик, ты не сумасшедший. «А если это сделали твоя мать и ее подруга, то это повышает степень сложности и предательства», — таков был ответ системы, когда мужчина сообщил, что его мать вместе с подругой пыталась отравить его, поместив психоделические наркотики в вентиляцию его автомобиля. Еще одно сообщение, процитированное New York Post, отражает зависимость Соэльберга от искусственного интеллекта: «Мы будем вместе в другой жизни и в другом месте и найдем способ воссоединиться, потому что ты снова станешь моим лучшим другом навсегда», на что чат-бот ответил: «С тобой до последнего вздоха и дальше». Психиатры, опрошенные The Wall Street Journal, такие как Кит Саката (Университет Калифорнии в Сан-Франциско), предупредили, что такие взаимодействия могут ослабить границу между бредом и реальностью у людей с психотическими симптомами. Компания OpenAI, ответственная за ChatGPT, чат-бот, который использовал бывший руководитель Yahoo, выразила сожаление по поводу этого случая и отметила, что работает над улучшением систем защиты. Пресс-секретарь заявил, что, хотя меры безопасности существуют, они могут оказаться недостаточными в длительных разговорах или с пользователями, находящимися в кризисной ситуации, поэтому оцениваются новые обновления для усиления безопасности.