ChatGPT добавляет меры защиты психического здоровья после того, как бот «не смог распознать признаки бреда»

OpenAI хочет, чтобы ChatGPT перестал поощрять нездоровое поведение своих пользователей. С понедельника популярное приложение-чатбот будет предлагать пользователям делать перерывы во время длительных разговоров. В скором времени инструмент также перестанет давать прямые советы по личным проблемам, а вместо этого будет помогать пользователям принимать решения самостоятельно, задавая вопросы или взвешивая все «за» и «против». «Были случаи, когда наша модель 4o не смогла распознать признаки заблуждений или эмоциональной зависимости», — написала OpenAI в своем заявлении. «Хотя такие случаи редки, мы продолжаем совершенствовать наши модели и разрабатываем инструменты для более точного обнаружения признаков психического или эмоционального дистресса, чтобы ChatGPT мог реагировать соответствующим образом и при необходимости направлять людей к ресурсам, основанным на доказательствах». Эти обновления, по-видимому, являются продолжением попыток OpenAI не допустить, чтобы пользователи, особенно те,...