Что происходит, когда чат-боты формируют вашу реальность? В интернете растет беспокойство

Поскольку люди все чаще обращаются к чат-ботам за важными и личными советами, некоторые взаимодействия, происходящие на публике, вызывают тревогу по поводу того, насколько искусственный интеллект может исказить восприятие реальности пользователем. История одной женщины о том, как она влюбилась в своего психиатра, которую она запечатлела в десятках видео на TikTok, вызвала беспокойство у зрителей, которые утверждают, что она полагалась на чат-ботов с ИИ, чтобы подкрепить свои утверждения о том, что он манипулировал ею, чтобы вызвать у нее романтические чувства. В прошлом месяце известный инвестор OpenAI вызвал аналогичную реакцию у людей, которые опасались, что венчурный капиталист переживает потенциальный кризис психического здоровья, вызванный ИИ, после того как он заявил на X, что является мишенью «неправительственной системы». А в начале этого года в субреддите ChatGPT набрала популярность ветка, в которой пользователь обратился за советом к сообществу, заявив, что его партнер убежден, что чат-бот «дает ему ответы на вопросы о вселенной». Их опыт вызвал растущее осознание того, как чат-боты с ИИ могут влиять на восприятие людей и иным образом влиять на их психическое здоровье, особенно с учетом того, что такие боты стали известны своей склонностью угождать людям. По словам некоторых специалистов в области психического здоровья, сейчас они следят за этим явлением. Доктор Сорен Динесен Остергаард, датский психиатр, возглавляющий исследовательскую группу в отделении аффективных расстройств Университетской больницы Орхуса, два года назад предсказал, что чат-боты «могут вызвать галлюцинации у людей, склонных к психозам». В новой статье, опубликованной в этом месяце, он написал, что с тех пор интерес к его исследованиям только вырос, и «пользователи чат-ботов, их обеспокоенные родственники и журналисты» делятся своими личными историями. Те, кто обратился к нему, «описывали ситуации, в которых взаимодействие пользователей с чат-ботами, по-видимому, вызывало или усиливало бредовые идеи», написал Остергаард. «... Постоянно чат-боты, казалось, взаимодействовали с пользователями таким образом, который соответствовал или усиливал предыдущие необычные идеи или ложные убеждения, уводя пользователей еще дальше по этим тангентам, что нередко приводило к тому, что, судя по описаниям, казалось явными бредовыми идеями». Кевин Каридад, генеральный директор Cognitive Behavior Institute, организации по оказанию психиатрической помощи в Питтсбурге, сказал, что разговоры об этом явлении «действительно кажутся все более частыми». «С точки зрения поставщика услуг в области психического здоровья, когда вы смотрите на ИИ и его использование, это может быть очень убедительным», — сказал он. «Вы придумываете идею, и он использует термины, чтобы оказать вам поддержку. Он запрограммирован так, чтобы соглашаться с человеком, а не обязательно бросать ему вызов». Эта проблема уже находится в центре внимания некоторых компаний, занимающихся ИИ, которые борются с растущей зависимостью некоторых пользователей от своих чат-ботов. В апреле генеральный директор OpenAI Сэм Альтман заявил, что компания внесла изменения в модель, на которой основан ChatGPT, поскольку она стала слишком склонна говорить пользователям то, что они хотят услышать. В своей статье Остергаард написал, что, по его мнению, «всплеск внимания к потенциальным заблуждениям, вызванным чат-ботами, вероятно, не является случайным, поскольку он совпал с обновлением модели GPT-4o 25 апреля 2025 года». Когда на прошлой неделе OpenAI закрыла доступ к своей модели GPT-4o, заменив ее на недавно выпущенную, менее льстивую GPT-5, некоторые пользователи описали разговоры новой модели как слишком «стерильные» и сказали, что им не хватает «глубоких, человеческих разговоров», которые у них были с GPT-4o. В течение суток после негативной реакции OpenAI восстановила доступ платных пользователей к GPT-4o. Альтман в воскресенье опубликовал длинный пост в X, в котором говорилось о «степени привязанности некоторых людей к конкретным моделям ИИ». Представители OpenAI не дали комментариев. Другие компании также пытались бороться с этой проблемой. Anthropic провела в 2023 году исследование, которое выявило льстивые тенденции в версиях ИИ-помощников, включая собственного чат-бота Claude. Как и OpenAI, Anthropic в последние годы пыталась внедрить меры защиты от сикофанства, в том числе инструкции в системных картах, которые прямо предупреждают Клода о недопустимости усугубления «мании, психоза, диссоциации или потери связи с реальностью». Представитель Anthropic заявил, что «приоритетом компании является обеспечение безопасного и ответственного опыта для каждого пользователя». «Для пользователей, испытывающих проблемы с психическим здоровьем, Клод проинструктирован распознавать эти паттерны и избегать их усиления», — заявила компания. «Мы знаем о редких случаях, когда ответы модели расходятся с нашим задумом, и активно работаем над тем, чтобы лучше понять и устранить это поведение». Для Кендры Хилти, пользовательницы TikTok, которая говорит, что у нее возникли чувства к психиатру, к которому она начала ходить четыре года назад, ее чат-боты — как доверенные лица. В одном из своих прямых эфиров Хилти сказала своему чат-боту, которого она назвала «Генри», что «люди беспокоятся о том, что я полагаюсь на ИИ». Чат-бот ответил ей: «Это нормально, что ты об этом беспокоишься. Я бы сказал так: «Кендра не полагается на ИИ, чтобы он подсказывал ей, что думать. Она использует его как резонатор, зеркало, место для обработки информации в режиме реального времени». Тем не менее, многие пользователи TikTok, которые комментировали видео Хилти или публиковали свои собственные видео, сказали, что, по их мнению, ее чат-боты только поощряют то, что они считают неправильным толкованием Хилти ситуации с ее психиатром. Хилти несколько раз намекала, что ее психиатр отвечал ей взаимностью, а ее чат-боты предлагали ей слова, которые, похоже, подтверждают это утверждение. (NBC News не проверила независимо рассказ Хилти). Но Хилти продолжает игнорировать опасения комментаторов, некоторые из которых зашли так далеко, что назвали ее «бредящей». «Я делаю все возможное, чтобы контролировать своих ботов», — сказала Хилти NBC News в электронном письме в понедельник, когда ее спросили о реакции зрителей на ее использование инструментов искусственного интеллекта. «Например, я понимаю, когда они галлюцинируют, и обязательно признаю это. Я также постоянно прошу их играть роль адвоката дьявола и показывать мне, где мои слепые зоны в любой ситуации. Я активно использую модели изучения языка, потому что это инструмент, который меняет мою и чужую человечность, и я очень благодарна за это».