Южная Америка

Он попросил совета у ChatGPT и оказался в больнице с устаревшей болезнью.

Он попросил совета у ChatGPT и оказался в больнице с устаревшей болезнью.
В середине недели, наполненной важными новостями, такими как запуск GPT-5, искусственный интеллект по-прежнему остается в центре внимания, но не только из-за хороших новостей, но и из-за его неправомерного использования и пагубных последствий. Недавно стало известно о случае 60-летнего мужчины, который использовал платформу Open AI, чтобы спросить совет по поводу своей диеты, и конечный результат оказался менее благоприятным, чем ожидалось. Согласно журналу Annals of Internal Medicine Clinical Cases, этот мужчина искал заменитель соли в своих блюдах и, после того как последовал совету ChatGPT, оказался в больнице почти на месяц. Дело в том, что искусственный интеллект порекомендовал ему заменить соль бромидом натрия, и он придерживался этой диеты в течение трех месяцев, что привело к отравлению, известному как бромизм, которое было относительно распространенным в XIX веке. «Бромизм возникает в результате использования веществ, содержащих избыток брома. Этот элемент в естественной форме содержится в некоторых продуктах питания или морской воде и в этом смысле не является токсичным. Он становится токсичным при употреблении в чрезмерных количествах или в составе соединений, которые могут вызвать изменения в организме», — объясняет Мария Исабель Росон, магистр и доктор наук в области питания, профессор Университета Буэнос-Айреса и директор Университета Куэнка-дель-Плата. «Он поясняет, что его никогда не следует употреблять в качестве единственного компонента; он объясняет, что его можно использовать в качестве одного из компонентов лекарственного препарата, «в строго контролируемых количествах, фактически в нанограммах, даже не достигающих миллиграмма». Он отмечает, что ранее он использовался ненадлежащим образом, как в случае с соединением, содержащим бром, которое придавало хлебу определенную текстуру (более твердую и хрустящую корочку), но его использование было прекращено, когда обнаружили, что оно может иметь побочные эффекты в долгосрочной перспективе. Он также отмечает, что оно используется в качестве дезинфицирующего средства для бассейнов и, если его применять неправильно, может нанести необратимый вред, например, повредить кожу. «Так произошло с героем этой истории, который через 24 часа после поступления в больницу начал проявлять признаки паранойи, слуховые и зрительные галлюцинации. Он даже пытался сбежать, что привело к принудительной психиатрической госпитализации по причине тяжелой инвалидности. В конце концов, пациент пробыл в больнице три недели. «Это не первый случай использования искусственного интеллекта в здравоохранении. Фактически, «исследование, опубликованное в JAMA Network Open в 2024 году, с участием более 4000 пользователей ChatGPT, показало, что 43% из них по крайней мере один раз обращались с вопросом о здоровье», отмечает Эрнан Сеоане, консультант по стратегическим инновациям в области здравоохранения, искусственного интеллекта и лабораторий. Важно учитывать, что ChatGPT и другие системы искусственного интеллекта могут генерировать научные неточности, не обладать способностью критически обсуждать результаты и, в конечном итоге, способствовать распространению недостоверной информации», — заключает журнал, освещающий этот случай. В этом контексте стоит отметить, что издание Live Science связалось с OpenAI, разработчиком ChatGPT, по поводу этого случая, и компания сослалась на свои условия предоставления услуг: «Вы не должны полагаться на результаты наших услуг как на единственный источник достоверной или объективной информации, а также как на замену профессиональной консультации». Представитель компании также отметил, что Open AI стремится снизить риски, обучая инструмент поощрять пользователей обращаться за консультацией к профессионалу. «В этом смысле доктор Росон отмечает, что искусственный интеллект может ответить на многие вопросы, но «если у вас нет профессионала, который бы их интерпретировал, вы можете совершить очень серьезные ошибки, как тот, что совершил этот человек. Если вернуться к этому случаю, то бромид натрия действительно является солью, но в определенных количествах он может убить вас». Кроме того, он объясняет, что ИИ — это инструмент, который не учитывает состояние человека, «не знает, каково его питание, какие заболевания или патологии у него могут быть». Сеоане согласен с Росоном и отмечает, что «ИИ должен быть дополнением, а не заменой профессиональному медицинскому работнику». Он уточняет, что в случае с пациентами ИИ может переводить сложную медицинскую информацию на простой язык, напоминать о приеме лекарств, отслеживать симптомы или выявлять закономерности, которые человек мог бы упустить. В случае специалистов «он может помогать в дифференциальной диагностике, быть в курсе последних публикаций или анализировать большие объемы клинических данных, которые невозможно обработать вручную. Это то, что мы называем расширенным ИИ: технология усиливает человеческие возможности». Не менее важно то, что, согласно опросу, проведенному платформой Medscape, 42% аргентинских специалистов заявили, что испытывают «большую» или «некоторую» озабоченность по поводу возможности замены их клинического мнения ИИ, а 84% требуют создания правовой базы и 72% считают, что использование ИИ в медицине должно находиться под контролем правительства или медицинских ассоциаций. В то же время около 60% аргентинских врачей согласны с тем, что ИИ может помочь сократить количество человеческих ошибок. Нет сомнений, что дилемма стоит на повестке дня; время покажет, в каком направлении будет развиваться эта ситуация. "