Риски использования искусственного интеллекта для решения проблем психического здоровья

В последние годы спрос на психиатрическую помощь вырос. Пандемия стала провоцирующим фактором, говорится в докладе, опубликованном Американской психологической ассоциацией (APA). Однако профессиональное предложение доступно не всем в силу различных факторов, будь то стоимость, доступность или стигма. В этих условиях альтернативой становятся технологии, или, по крайней мере, они появились с появлением искусственного интеллекта: «Были разработаны новые платформы, специально предназначенные для оказания помощи в области психического здоровья с помощью искусственного интеллекта. Яркими примерами этого являются Woebot Health или Earkick, оба из которых имеют динамику разговорного чата, направленную на оказание эмоциональной поддержки в сложных личных ситуациях, например, когда человек испытывает сильное давление или просто хочет выпустить пар. Эти продукты могут похвастаться такими преимуществами, как доступность с помощью всего лишь электронного устройства, круглосуточная доступность, первая помощь для людей, которые не решаются заговорить, и т. д. «Правда в том, что эти платформы, хотя они могут вызвать сомнения и критику в области психологии, разработаны на междисциплинарной основе с участием специалистов в области здравоохранения и имеют подготовку, ориентированную на психическое здоровье. То есть они используют базу данных, ограниченную всем, что связано с психологией, и нацелены на обдумывание формулировки соответствующих ответов в рамках чувствительного интерактивного взаимодействия, а также на постоянный мониторинг реакций пользователей для выявления рискованного поведения. «Большую тревогу вызывает использование других генеративных моделей искусственного интеллекта, не предназначенных для такого типа взаимодействия, таких как ChatGPT, Gemini или Claude. В частности, внимание специалистов привлекла Character.ai, платформа, позволяющая создавать чат-ботов на основе реальных или вымышленных персонажей. Как сообщает BBC, одним из самых посещаемых персонажей в приложении является «психолог», который получил в общей сложности 78 миллионов сообщений в течение 2023 года. Параллельно с этим в начале 2024 года было зарегистрировано более 475 персонажей под названиями «терапия», «терапевт», «психиатр» и другими аналогичными. «По данным The New York Times, тревожные сигналы были подняты, когда последствия использования этих платформ материализовались в печальные события. В одном случае 14-летний мальчик во Флориде (США) покончил жизнь самоубийством после общения с персонажем, описанным как «лицензированный психотерапевт». В другом случае 17-летний мальчик с аутизмом стал более жестоким по отношению к своим родителям после того, как общался с «психологом» Character.ai. В ответ родители обоих мальчиков подали судебные иски против компании. «В результате в декабре прошлого года Артур К. Эванс-младший, исполнительный директор APA, направил официальное письмо в Федеральную торговую комиссию США (FTC), в котором указал на эти два случая как на убедительное доказательство явления, которое может только расти. В письме содержится призыв провести тщательное расследование в отношении чат-ботов, выдающих себя за специалистов в области психического здоровья, с возможностью запросить у компаний внутренние данные и готовностью принять судебные меры. «В ответ на критику Кэтрин Келли, представитель Character.ai, заявила, что за последний год компания ввела новые меры безопасности. В частности, в персонажах, посвященных психическому здоровью, появилось пояснение, предупреждающее, что этот бот «не является реальным человеком или лицензированным специалистом» и что «ничто из сказанного здесь не заменяет профессиональной консультации, диагностики или лечения». В свою очередь, в случаях, когда в контенте говорится о самоубийстве или членовредительстве, всплывающее окно направляет пользователей на телефон доверия по профилактике. «Претензия APA законна, и в конечном итоге должны быть установлены правовые стандарты для (неправильного) использования технологий. Так, по данным The Vox, в Калифорнии в середине февраля был представлен законопроект, призванный запретить компаниям разрабатывать системы искусственного интеллекта, выдающие себя за сертифицированных специалистов в области здравоохранения, а если они это делают, то наделить власти полномочиями штрафовать их. Но есть и реальность: искусственный интеллект неизбежно будет переплетаться с областью психологии. Как лучше это сделать? Вот вопрос, на который еще предстоит ответить. В первую очередь следует ограничить использование инструментов, разработанных для целей охраны психического здоровья, и отказаться от тех, что имеют более общее назначение, например Character.ai. В то же время необходимо, чтобы ответственные компании следовали этической и междисциплинарной линии развития. Если целью развития является только экономическая выгода, это никогда не будет хорошо», - объяснил LA NACIÓN Гонсало Аранес, клинический психолог и куратор обучения LLM. «В компаниях, которые занимаются созданием подобных платформ, на руководящих должностях должны быть специалисты в области психического здоровья, которые обладают этическими и техническими критериями, чтобы любое развитие было направлено на обеспечение эффективных, гуманных и ответственных ответов». Второй случай - отвести технологии место, которое она занимает, чтобы воспользоваться ее преимуществами. Алехандра Гомес, психолог и психиатр из Аргентинской ассоциации психологов, рассказала LA NACION, что эта технология может дать преимущества для информационного и образовательного использования пациентами. Пользователи могут использовать эти инструменты в качестве первичной помощи при возникновении проблемы, которая затем будет передана специалистам, «Это может быть особенно полезно для тех людей, которые все еще не хотят просить о помощи». Брэд Бреннер, доктор психологии и основатель Therapy Group of DC, в своей статье подтвердил, что до сих пор существует стигма, указывающая на слабость и неспособность управлять жизнью тех, кто проходит терапию. В результате многие предпочитают избегать профессиональной помощи. Даже такие люди, как жертвы гендерного насилия, которым сложно рассказать о своем травматическом опыте человеку. Разговорные боты, обученные оказывать помощь в области психического здоровья, могут стать первой исследовательской фазой. Кроме того, по словам Гомеса, искусственный интеллект может предоставлять данные или генерировать профилактические предупреждения о психическом здоровье. Это можно увидеть в новых приложениях, таких как MoodCapture, которое использует фронтальную камеру телефона для съемки выражения лица человека и его окружения во время регулярного использования. На основе этих изображений проводится анализ на предмет клинических признаков, связанных с депрессией, которые могут служить сигналом о необходимости профессиональной помощи или дополнять анализ психотерапевта». »Наконец, важно понимать, что искусственный интеллект никогда не сможет заменить психотерапевта. «Психоанализ охватывает всю человеческую психику, включая работу мозга, сознательные и бессознательные аспекты и эмоции», - сказала LA NACION Мабель Трипчевич, психолог и действительный член Аргентинской психоаналитической ассоциации (Asociación Psicoanalítica Argentina). Она добавила: «Она нацелена на индивидуальное, творческое, интимное и конфиденциальное лечение, в отличие от искусственного интеллекта, который предлагает автоматизированные и единообразные ответы». Трипчевич объяснила, что психоаналитическая терапия не только интеллектуальна, но и подразумевает встречу двух людей. Это сближение, в котором рождаются эмоции и история как терапевта, так и пациента, непосредственно участвует в лечении. «Игра, которой искусственный интеллект пока - и навсегда - будет лишен», - сказал он. Аранес, в свою очередь, подтвердил, что существует множество исследований, показывающих, что значительная часть терапевтического процесса обусловлена связью, которую человек устанавливает с психологом. «Мы должны рассматривать ИИ как дополнение, поддержку или дополнение к традиционной психотерапии и разрушить многие предрассудки, которые все еще существуют в значительной части психологического сообщества», - размышляет Аранес. «Я считаю, что это уникальная возможность сделать это и что, в конечном счете, (необоснованный) страх, что он может заменить нас, не позволит нам увидеть многочисленные преимущества, которые он может принести пациентам и профессионалам», - заключил он.»