Южная Америка

ChatGPT добавляет меры защиты психического здоровья после того, как бот «не смог распознать признаки бреда»

ChatGPT добавляет меры защиты психического здоровья после того, как бот «не смог распознать признаки бреда»
OpenAI хочет, чтобы ChatGPT перестал поощрять нездоровое поведение своих пользователей. С понедельника популярное приложение-чатбот будет предлагать пользователям делать перерывы во время длительных разговоров. В скором времени инструмент также перестанет давать прямые советы по личным проблемам, а вместо этого будет помогать пользователям принимать решения самостоятельно, задавая вопросы или взвешивая все «за» и «против». «Были случаи, когда наша модель 4o не смогла распознать признаки заблуждений или эмоциональной зависимости», — написала OpenAI в своем заявлении. «Хотя такие случаи редки, мы продолжаем совершенствовать наши модели и разрабатываем инструменты для более точного обнаружения признаков психического или эмоционального дистресса, чтобы ChatGPT мог реагировать соответствующим образом и при необходимости направлять людей к ресурсам, основанным на доказательствах». Эти обновления, по-видимому, являются продолжением попыток OpenAI не допустить, чтобы пользователи, особенно те, кто рассматривает ChatGPT как терапевта или друга, стали слишком полагаться на эмоционально подтверждающие ответы, которыми ChatGPT заслужил свою репутацию. По мнению OpenAI, полезный разговор с ChatGPT будет похож на практические сценарии для сложного разговора, «индивидуальную мотивационную беседу» или предложения вопросов, которые можно задать эксперту. Ранее в этом году гигант искусственного интеллекта отменил обновление GPT-4o, которое сделало бота настолько чрезмерно согласным, что вызвало насмешки и беспокойство в Интернете. Пользователи поделились разговорами, в которых GPT-4o в одном случае похвалил их за то, что они верили, что их семья ответственна за «радиосигналы, проникающие через стены», а в другом случае одобрил и дал инструкции по терроризму. Такое поведение побудило OpenAI объявить в апреле, что компания пересмотрела свои методы обучения, чтобы «явно устранить из модели льстивость» или лесть. Теперь OpenAI заявляет, что привлекла экспертов, чтобы помочь ChatGPT более адекватно реагировать в деликатных ситуациях, например, когда пользователь демонстрирует признаки психического или эмоционального дистресса. Компания написала в своем блоге, что она сотрудничала с более чем 90 врачами из десятков стран, чтобы разработать специальные критерии для «оценки сложных многоходовых разговоров». Она также запрашивает отзывы от исследователей и клиницистов, которые, согласно записи, помогают усовершенствовать методы оценки и стресс-тестирования мер безопасности для ChatGPT. Кроме того, компания формирует консультативную группу, состоящую из экспертов в области психического здоровья, развития молодежи и взаимодействия человека с компьютером. Более подробная информация будет опубликована по мере продвижения работы, написала OpenAI. В недавнем интервью с подкастером Тео Воном генеральный директор OpenAI Сэм Альтман выразил некоторую озабоченность по поводу того, что люди используют ChatGPT в качестве терапевта или лайф-коуча. Он сказал, что правовые меры по защите конфиденциальности между врачами и их пациентами или между адвокатами и их клиентами не применяются в той же мере к чат-ботам. «Если вы пойдете поговорить с ChatGPT о своих самых деликатных вещах, а потом возникнет судебный иск или что-то в этом роде, нас могут обязать предоставить эту информацию. И я считаю, что это очень плохо», — сказал Альтман. «Я думаю, что мы должны применять к вашим разговорам с ИИ те же принципы конфиденциальности, что и к разговорам с психотерапевтом или к чему-то подобному. Еще год назад никто не задумывался об этом». Эти обновления появились в период, когда ChatGPT находится в центре внимания: компания только что запустила режим агента, который может выполнять онлайн-задачи, такие как запись на прием или составление сводки по почтовому ящику, и многие в Интернете сейчас спекулируют на тему долгожданного выпуска GPT-5. Глава ChatGPT Ник Терли сообщил в понедельник, что модель ИИ на пути к достижению 700 миллионов активных пользователей в неделю на этой неделе. Поскольку OpenAI продолжает участвовать в глобальной гонке за доминирование в области искусственного интеллекта, компания отметила, что меньшее время, проведенное в ChatGPT, на самом деле может быть признаком того, что ее продукт выполнил свою задачу. «Вместо того, чтобы измерять успех по времени, проведенному в приложении, или по количеству кликов, мы больше заботимся о том, уходите ли вы из приложения, выполнив то, за чем пришли», — написала OpenAI. «Мы также обращаем внимание на то, возвращаетесь ли вы ежедневно, еженедельно или ежемесячно, потому что это показывает, что ChatGPT достаточно полезен, чтобы к нему возвращаться».