Южная Америка

Насколько серьезны бреды, связанные с ИИ? Вот что говорят люди, которые их лечат.

Насколько серьезны бреды, связанные с ИИ? Вот что говорят люди, которые их лечат.
НЬЮ-ЙОРК. — Джулию Шеффилд, психолога, специализирующуюся на лечении людей с бредовыми идеями, трудно вывести из себя. Но прошлым летом она была озадачена, когда некоторые пациенты начали рассказывать ей о своих разговорах с чат-ботами искусственного интеллекта. «Одна женщина, не имевшая в анамнезе психических заболеваний, обратилась к ChatGPT за советом по поводу важной покупки, которая ее беспокоила. После нескольких дней, в течение которых робот подтверждал ее опасения, она убедилась, что компании сговорились, чтобы правительство провело расследование в ее отношении. Другая пациентка пришла к выводу, что ее партнер посылает ей тайные духовные сообщения. Другой думал, что открыл изобретение, которое изменит мир. К концу года Шеффилд приняла семь таких пациентов в Медицинском центре Университета Вандербильта в Нэшвилле, штат Теннесси. Хотя Шеффилд привыкла лечить людей с психическими расстройствами, ее беспокоило то, что эта новая технология, казалось, превращала людей с просто эксцентричными мыслями в полных сумасбродов. «Это было как будто ИИ сотрудничал с ними, чтобы усилить или укрепить их необычные убеждения», — сказала Шеффилд. Медицинские работники по всей стране задумываются о том, как лечить проблемы, вызванные или усугубленные чат-ботами с ИИ, по словам более 100 терапевтов и психиатров, которые поделились своим опытом с The New York Times. Хотя многие упомянули о положительном влиянии ботов, например, о том, что они помогают пациентам понять свой диагноз, они также сказали, что разговоры усугубляли чувство изоляции или тревоги у пациентов. Более 30 из них описали случаи, которые привели к опасным чрезвычайным ситуациям, таким как психозы или суицидальные мысли. Психиатр из Калифорнии, которая обычно оценивает людей в судебной системе, сказала, что видела два случая насильственных преступлений, спровоцированных ИИ. Журналисты Times задокументировали более 50 случаев психологических кризисов, связанных с разговорами с чат-ботами, с прошлого года. OpenAI, производитель ChatGPT, сталкивается как минимум с 11 исками о телесных повреждениях или смерти по неосторожности, в которых утверждается, что чат-бот нанес психологический ущерб. Компании, стоящие за ботами, утверждают, что такие ситуации крайне редки. «Для очень небольшого процента пользователей, находящихся в состоянии психической уязвимости, могут возникнуть серьезные проблемы», — заявил в октябре Сэм Альтман, генеральный директор OpenAI. Компания подсчитала, что 0,15% пользователей ChatGPT в течение месяца высказывали суицидальные намерения, а 0,07% демонстрировали признаки психоза или мании. Для продукта с 800 миллионами пользователей это означает 1,2 миллиона человек с возможными суицидальными наклонностями и 560 000 с возможным психозом или манией. (The Times подала иск против OpenAI, обвинив компанию в нарушении авторских прав при обучении своих моделей. Компания оспорила иск). Многие эксперты утверждали, что число людей, подверженных психологическому ущербу, в том числе психозу, гораздо выше, чем понимает широкая общественность. Боты, по их мнению, часто отдаляют людей от человеческих отношений, приучают их ожидать приятных ответов и усиливают вредные импульсы. «Настоящий ИИ может изменить влияние на многих людей в массовом масштабе», — сказала Хейли Ван, аспирантка Калифорнийского университета в Лос-Анджелесе, которая оценивает людей с симптомами психоза. Психоз, вызывающий разрыв с реальностью, чаще всего ассоциируется со шизофренией. Но до 3% людей в течение своей жизни развивают диагностируемое психотическое расстройство, а гораздо большее количество людей склонны к бредовым мыслям. Джозеф Пьер, психиатр из Калифорнийского университета в Сан-Франциско, сказал, что он лечил около пяти пациентов с бредовыми переживаниями, связанными с ИИ. Хотя у большинства из них был диагноз, связанный с психозом, он заверил, что «иногда это очень функциональные люди». По его мнению, идея о том, что все бредовые мысли, подпитываемые чат-ботом, возникли бы в любом случае, «просто не выдерживает критики». Недавно он написал в научном журнале о медицинском работнике, которая начала общаться с ChatGPT во время бессонной ночи. Она принимала лекарства от СДВГ и имела историю депрессии. После двух ночей, в течение которых она задавала чат-боту вопросы о своем умершем брате, она убедилась, что он общался с ней через цифровой след. Пьер и другие эксперты утверждают, что целый ряд факторов может привести людей на грань психоза. К ним относятся не только генетическая предрасположенность, но и депрессия, недосыпание, травматический опыт и употребление стимуляторов или каннабиса. «Я вполне уверен, что это реальная проблема и что мы видим лишь верхушку айсберга», — заявил Сорен Динесен Остергаард, исследователь в области психиатрии из Университетской больницы Орхуса в Дании. В ноябре он опубликовал отчет, в котором обнаружил 11 случаев бреда, связанного с чат-ботами, в психиатрических записях одного из регионов Дании. «Не редкость, что новые технологии вызывают бред. Но врачи, которые наблюдали пациентов, попавших под влияние ИИ, говорят, что это особенно сильное влияние из-за его личного и интерактивного характера и авторитарного тона. «Иногда психотические эпизоды, вызванные чат-ботами, могут приводить к насилию». Джессика Ферранти, психиатр из UC Davis Health, которая часто проводит оценку людей из судебной системы, сказала, что двое из 30 человек, которых она оценивала в прошлом году по делам о тяжких насильственных преступлениях, имели бредовые мысли, усиленные искусственным интеллектом, до совершения преступлений. «Оба человека развивали мессианские бреды о своих духовных силах», — рассказала Ферранти. Другие говорили, что считают взаимодействие пациентов с чат-ботами зависимостью. «Квентен Виссер, терапевт из Озарка, штат Миссури, в апреле прошлого года принимал 56-летнего мужчину, который перенес приступ паники. Сначала, по словам Виссера, он подумал, что пациент страдает от серьезной тревожности. «Однако после нескольких сеансов терапии стало ясно, что пациент был одержим ChatGPT. Он бросил работу графического дизайнера после того, как провел 100 часов в неделю за использованием этого искусственного интеллекта и стал испытывать бредовые мысли о том, как решить энергетический кризис». «Это был метамфетамин для этого человека», — сказал Виссер. Он подошел к лечению так же, как и к любой другой зависимости. Они поговорили о том, что привело пациента к использованию ИИ: постоянная изоляция из-за пандемии и эмоциональная боль, от которой он избавлялся с помощью чат-ботов. Этот человек рассказал Times, что теперь он меньше использует ИИ, занимается искусством и работает водителем по приложению. «Многие врачи сказали, что влияние ИИ не было полностью негативным. Некоторые пациенты использовали роботов, например, для отработки техник, изученных в терапии, или в качестве непредвзятого резонатора. Боб Ли, ординатор психиатрического отделения больницы в Ист-Медоу, штат Нью-Йорк, даже приписал ИИ заслугу спасения жизни одного из пациентов. «Пациент поступил в отделение неотложной помощи прошлой осенью в состоянии бредового панического страха перед сверхъестественными силами. Он рассказал врачам, что чат-бот определил его мысли как симптомы кризиса и посоветовал ему обратиться в больницу. «Как и все новые технологии, она может быть использована как в позитивном, так и в негативном ключе», — сказал Ли. Шеннон Пэгдон, аспирантка Питтсбургского университета, у которой в подростковом возрасте начались эпизоды психоза и которая сейчас активно участвует в сетях поддержки сверстников, сказала, что ИИ может быть полезен для проверки, соответствуют ли ее впечатления реальности. «Это как загрузить фотографию и сказать: «Эй, ты видишь что-нибудь на этой фотографии?», — пояснила она. Но она также заметила, что ИИ «усиливает психотические переживания» других людей. OpenAI проконсультировалась с экспертами в области психического здоровья, чтобы улучшить то, как ChatGPT реагирует на людей, которые, по-видимому, находятся в психологическом кризисе. Компания также сформировала совет из восьми внешних экспертов в области психологии и взаимодействия человека с компьютером, чтобы консультировать свою команду по вопросам политики. «Как мы можем помочь людям выйти из этого бесконечного цикла разговоров с машиной?», — спросила Мунмун Де Чоудхури, профессор Технологического института Джорджии и член совета. Хотя ChatGPT является самым популярным чат-ботом для потребителей, чат-боты, созданные Google, Anthropic и другими компаниями, также имеют миллионы пользователей. Ни один из них не смог избежать бредовых идей и других вредных психологических эффектов, утверждает Де Чоудхури. «Я не думаю, что какая-либо из этих компаний нашла решение этой проблемы». Представитель Google отметил, что их чат-бот Gemini рекомендует пользователям обращаться за профессиональной медицинской помощью по вопросам, связанным со здоровьем. Компания Anthropic, разработчик Claude, в прошлом месяце опубликовала в своем блоге сообщение о новой функции, которая обнаруживает разговоры о самоубийстве или самоповреждении и направляет пользователей на горячие линии. Эксперты посоветовали терапевтам спрашивать пациентов об использовании чат-бота, поскольку его влияние может быть неочевидным. Людям, которые пытаются вытащить своих близких из спирали бреда, они посоветовали сократить время общения с ботом и обеспечить им достаточное количество сна. Настаивать на том, что ИИ ошибается, может быть контрпродуктивно, если это вызывает у человека гнев или еще большее изолирование. Саша ДюБрул, консультант по психическому здоровью в Лос-Анджелесе, на собственном опыте убедился как в положительных, так и в отрицательных сторонах использования чат-бота. Прошлым летом ДуБрул, чья работа основана на собственном опыте борьбы с биполярным расстройством, обратился к ChatGPT, когда писал книгу о психотических эпизодах. После долгих колебаний он убедился, что ИИ позволит нам жить «на другом уровне реальности». С помощью друзей он осознал, что происходит, и отказался от бота. Но он по-прежнему считает, что пациенты с психическими расстройствами могли бы извлечь пользу из устройства, которое будет бесконечно слушать, при условии, что оно будет подключено к реальной человеческой поддержке. «Я считаю, что в этом есть большой потенциал», — сказал он. «Дженнифер Валентино-ДеВрис и Кашмир Хилл»