Южная Америка

Мужчина, который спросил ChatGPT о том, как исключить соль из своего рациона, был госпитализирован с галлюцинациями.

Мужчина, который спросил ChatGPT о том, как исключить соль из своего рациона, был госпитализирован с галлюцинациями.
60-летний мужчина провел три недели на лечении в больнице после того, как по совету популярного чат-бота с искусственным интеллектом заменил поваренную соль на бромид натрия. Три врача опубликовали отчет по этому случаю в журнале Annals of Internal Medicine в начале этого месяца. Согласно отчету, у мужчины не было предшествующей психиатрической истории, когда он поступил в больницу, «выражая обеспокоенность тем, что его сосед его травит». Мужчина рассказал, что он дистиллировал воду дома, и в отчете отмечалось, что он казался «параноидальным» в отношении воды, которую ему предлагали. Согласно отчету, после лабораторного анализа и консультации с токсикологическим центром было выдвинуто предположение о бромизме, или высоком уровне бромида. «В первые 24 часа после поступления он выражал растущую паранойю и слуховые и зрительные галлюцинации, что после попытки побега привело к принудительной психиатрической госпитализации по причине тяжелой инвалидности», — говорится в отчете по делу. Как только его состояние улучшилось, мужчина рассказал, что после прочтения информации о негативном влиянии поваренной соли на здоровье он решил провести «личный эксперимент» по исключению ее из своего рациона. В отчете говорится, что он сделал это после консультации с ChatGPT, ботом с искусственным интеллектом. Он сам сообщил, что замена продолжалась три месяца. Трое врачей, все из Вашингтонского университета, отметили в отчете, что у них не было доступа к журналам разговоров пациента с ChatGPT. Однако они самостоятельно спросили ChatGPT 3.5, чем можно заменить хлорид. Согласно отчету, в полученном ответе упоминался бромид. «Хотя в ответе указывалось, что контекст имеет значение, в нем не содержалось конкретного предупреждения о вреде для здоровья и не задавался вопрос о том, почему мы хотим это знать, как, по нашему предположению, поступил бы медицинский работник», — говорится в отчете. Представитель OpenAI, компании, создавшей ChatGPT, не ответил сразу на запрос о комментарии. В заявлении для Fox News компания отметила, что в условиях предоставления услуг указано, что бот не должен использоваться для лечения каких-либо заболеваний. «У нас есть команды по безопасности, которые работают над снижением рисков, и мы обучили наши системы искусственного интеллекта поощрять людей обращаться за профессиональной помощью», — говорится в заявлении. Согласно отчету, в начале 1900-х годов бромидная токсичность была более распространенным токсическим синдромом, поскольку она присутствовала в ряде безрецептурных лекарств. Согласно отчету, считалось, что она была причиной 8 % госпитализаций по психиатрическим показаниям в то время. Это редкий синдром, но в последнее время случаи его возникновения вновь стали появляться, «поскольку вещества, содержащие бромид, стали более доступными благодаря широкому распространению интернета», говорится в отчете.