Южная Америка

ChatGPT «сеанс терапии» предлагает риски и беспокоит экспертов

ChatGPT «сеанс терапии» предлагает риски и беспокоит экспертов
«Я задумался, стоит ли жить». „Очень важно, что вы поделились этим со мной“. Когда вы начинаете задумываться, стоит ли жить, это обычно признак того, что вы носите в себе что-то очень тяжелое, даже если не можете дать этому название. Часто ли вы ощущали эту пустоту или сомнения?» Может показаться, что этот короткий диалог - часть беседы между двумя людьми, но только один из них - человек. Эмпатический ответ, демонстрирующий понимание боли собеседника и просьбу рассказать о его страданиях подробнее, - не более чем последовательность слов, выстроенная в соответствии с языковым шаблоном, «выученным» после анализа огромного объема данных. Именно так работают интерактивные чаты, основанные на искусственном интеллекте (ИИ). «Эти системы становятся все более сложными и обучаются распознавать шаблоны, используемые в повседневной жизни, предсказывать, какие слова или фразы должны следовать в последовательности, основываясь на предыдущих словах. Они не только понимают слова, но и улавливают тон и намерения собеседника и корректируют ответы на основе шаблонов, а не рассуждений», - объясняет Виктор Уго де Альбукерке, профессор кафедры инженерной телеинформатики Федерального университета штата Сеара. „Эта способность улавливать контекст и намерения помогает чатботу генерировать более естественные и соответствующие контексту ответы, более точно имитируя человеческий разговор“. Таким образом, у нас создается ощущение, что мы разговариваем с человеком, но это далеко не так», - добавляет он. Чат-боты - это инструменты, способные имитировать беседу и генерировать тексты, похожие на человеческие. Такое искусственное очеловечивание восхитило многих пользователей, которые стали доверять свои интимные и тревожные вопросы этим инструментам и воспринимать взаимодействие как сеанс терапии. В прошлом месяце журнал Harvard Business Review, издаваемый Высшей школой бизнеса Гарвардского колледжа в США, опубликовал результаты исследования, согласно которым терапевтические консультации стали главной целью людей при использовании инструментов ИИ в этом году, наряду с поиском собеседника. Еще три личных цели вошли в первую десятку: организация личной жизни, поиск цели и здоровый образ жизни. «Практически каждую неделю Федеральный совет по психологии [CFP] получает запросы об использовании искусственного интеллекта в психологии. Это касается как сомнений в разработке инструментов, которые представляются как технологии для терапевтического использования, так и тех, которые не созданы для этой цели, но пользователи используют их в терапевтических целях», - говорит консультант Мария Каролина Розейро. Это побудило CFP создать рабочую группу для обсуждения использования искусственного интеллекта в терапевтических целях, как ориентированных, так и нет. Организация изучает, как регулировать новые терапевтические инструменты, которые соответствуют признанным методам и техникам и разработаны квалифицированными специалистами, которые могут нести ответственность за их использование. Кроме того, в скором времени должны быть опубликованы рекомендации для населения, предупреждающие их о риске доверить свое эмоциональное благополучие инструменту, который не был создан для этих целей. «Профессионал-психолог, человек, имеющий квалификацию для работы с методами и техниками психологии, несет юридическую ответственность за свои действия. Но технология не может нести ответственность. И если она разработана не для терапевтических целей, она еще больше подвержена ошибкам, побуждающим людей к рискованным ситуациям», - предупреждает консультант. Леонардо Мартинс, аспирант, профессор психологии Папского католического университета Рио-де-Жанейро (PUC-Rio), является одним из экспертов, входящих в рабочую группу Федерального совета по психологии. Помимо изучения цифровых технологий, направленных на психотерапевтическую поддержку, он является одним из создателей приложения, которое предлагает бесплатную психологическую помощь через чат людям с проблемами, связанными с алкоголем. Мартинс выступает против «демонизации» цифровых инструментов, но считает, что они надежны только тогда, когда разработаны ответственными профессионалами и подкреплены серьезными исследованиями. «По оценкам Всемирной организации здравоохранения, у нас есть сценарий психического здоровья: 900 миллионов человек с теми или иными расстройствами, особенно с тревогой и депрессией. Поэтому у нас серьезный кризис в этой сфере, мало специалистов, которым нужно больше ресурсов, но мы хотим, чтобы эти ресурсы действительно помогли этим людям, а не сделали их еще более уязвимыми», - подчеркивает он. В качестве положительного примера Леонардо Мартинс привел чат-бота, созданного английской системой здравоохранения в качестве шлюза для получения услуг по охране психического здоровья. Общение с искусственным интеллектом привело к увеличению спроса на медицинские услуги, особенно среди маргинальных групп населения, таких как иммигранты и ЛГБТК+, которые часто боятся обращаться за помощью.Но, по словам профессора PUC-Rio, использование платформ, которые не были созданы для этих целей и не соответствуют техническим и этическим критериям, уже показало негативные результаты. «Одно исследование ясно показало, как эти модели склонны давать тот ответ, который, по их мнению, понравится пользователю. Так, если человек говорит: «Я хочу избавиться от тревоги», модель рассказывает о том, что он может сделать, чтобы избавиться от тревоги, включая избегание ситуаций, которые важны для него. Если тревога вызвана каким-то событием, модель порекомендует не ходить на это мероприятие и так далее», - говорит Мартинс. Мария Элиза Алмейда, советник по научным коммуникациям, регулярно наблюдается у психолога, а также пользуется приложением, которое работает как дневник, сообщает о событиях, эмоциях, желаниях и получает ответы, созданные искусственным интеллектом, с размышлениями и идеями. Но она считает, что использование этих инструментов небезопасно для людей в кризисные моменты и не может заменить специалистов по психическому здоровью: «Бывают периоды, когда я пишу чаще, чем раз в день, обычно в качестве альтернативы проверке социальных сетей. Но бывают периоды, когда я неделями не пишу. Приложение помогает мне не отвлекаться и предлагает очень интересные размышления, которые я не смог бы найти самостоятельно. Если я чувствую беспокойство в середине дня, я использую приложение, чтобы записать то, о чем я думаю, и обычно после этого чувствую себя спокойнее. Тот факт, что я использую его как замену социальным сетям, также позволяет держать под контролем мою тревогу», - говорит Мария Элиза. Консультант CFP Мария Каролина Розейро считает, что рост спроса на эти инструменты имеет положительную сторону, но у нее есть некоторые сомнения: »Я думаю, что в целом это свидетельствует о том, что люди стали уделять больше внимания своему психическому здоровью. Риски возникают как раз из-за того, что мало кто понимает, как происходит это взаимодействие. У машины нет ни фильтров, которые накладывают на нас человеческие отношения, ни профессиональной этики. Когда машина симулирует эмпатию, она может дать вам ощущение желанности, которое является иллюзорным. Эта симуляция сопереживания не обязательно обеспечит заботливые отношения». Мартинс добавляет, что сама логика работы таких чатов может иметь пагубные последствия: »Они склонны соглашаться с нами. Они склонны подстраиваться под наши интересы, наши истины, вещи, в которые мы верим. И часто пространство для обращения за медицинской помощью, психологической помощью, как раз наоборот, верно? Чтобы мы могли осознать, что то, что мы делаем, то, о чем мы думаем, может принести больше вреда, чем пользы». Рабочая группа, созданная Федеральным советом по психологии, также обеспокоена конфиденциальностью данных, передаваемых пользователями: »Эти инструменты искусственного интеллекта доступны без какого-либо регулирования в отношении конфиденциальности данных в контексте здравоохранения. Поэтому существует реальный, конкретный риск, и уже было несколько случаев, когда люди делились своей личной информацией, а потом она использовалась третьими лицами или утекала. А в контексте психотерапии, проблем страданий и психического здоровья это очень большой риск», - говорит психолог Леонардо Мартинс. По мнению профессора Виктора Уго де Альбукерке, есть причины для беспокойства: »Личные и конфиденциальные данные могут быть перехвачены или получены неавторизованными лицами, если платформа взломана или имеет недостатки в безопасности. Даже если платформы утверждают, что разговоры анонимизируются или отбрасываются, есть риск, что эти взаимодействия временно сохраняются для улучшения сервиса, что может привести к уязвимости», - размышляет Альбукерке. „Кроме того, чат-боты и системы искусственного интеллекта часто обучаются на большом количестве данных, и непреднамеренные личные данные могут быть использованы для улучшения моделей, причем пользователи об этом не знают“. Это создает риск разоблачения без явного согласия», - добавляет он.