The future of healthcare will not be without doctors: the role that AI cannot take on
37-летний ирландец решил довериться ChatGPT, чтобы понять, что с ним происходит. Он обратился к чат-боту с жалобой на постоянную боль в горле и получил успокаивающий ответ: «Вероятность того, что у вас рак, крайне мала». Спустя несколько месяцев врач диагностировал у него рак пищевода в запущенной стадии. Этот случай, который освещался в международных СМИ, стал символом рисков использования искусственного интеллекта для медицинских консультаций без профессионального надзора. Уоррен Тирни, психолог и отец семейства, начал использовать этот инструмент, чтобы исключить заболевания. По мере ухудшения симптомов он несколько раз обращался к нему за консультацией. Когда он наконец обратился в больницу, диагноз был разрушительным: запущенная аденокарцинома с небольшими шансами на выживание. Лежа в постели, Тирни признал, что доверие к чат-боту «вероятно, стоило ему нескольких месяцев жизни». Эта история демонстрирует растущее противоречие: легкость, с которой миллионы пользователей внедряют искусственный интеллект в свою повседневную жизнь, и ограниченность его надежности в критических вопросах. Языковые модели, такие как ChatGPT, не были разработаны для предоставления индивидуальных медицинских консультаций или замены мнения профессионала. Однако соблазн получить мгновенные и бесплатные ответы — без очередей и ожидания — продолжает набирать обороты. Чтобы понять масштабы и ограничения этого явления, Эрнан Сеоане, консультант по стратегическим инновациям в области здравоохранения и искусственного интеллекта, предупреждает: «Наибольший риск — это чрезмерное доверие. Эти инструменты могут казаться очень надежными, даже если они ошибаются. Они могут искажать данные, не учитывать клинический контекст или не знать вашу историю болезни. Они служат для информирования и ориентации, но не заменяют консультацию врача». Сеоане также подчеркивает вопрос конфиденциальности: «Не каждый чат является подходящим местом для раскрытия конфиденциальной информации», и добавляет, что многие модели обучены на данных, не имеющих отношения к местному контексту. «То, что работает в больнице в США, может не работать так же в Сальте или пригороде», — приводит он в пример. С технической точки зрения он проводит различие между общей моделью, такой как ChatGPT, и специализированной медицинской моделью. «Общая модель — это отличный собеседник, обученный с помощью Интернета и книг, но он не предназначен для принятия клинических решений. Медицинский ИИ, напротив, питается тщательно отобранными данными, использует диагностические стандарты и проходит регуляторные оценки. Кроме того, он имеет прослеживаемость: известно, на каких данных он был обучен и как обновляется». На вопрос о том, готов ли ИИ участвовать в диагностике, Сеоане отвечает однозначно: «Да, но в качестве поддержки и в четко определенных задачах». Он может выделять подозрительные изображения, чтобы радиолог мог их увидеть в первую очередь, или составлять краткие истории болезни, или помогать в телефонном отборе пациентов. Там, где есть доказательства и контроль, он сокращает время и уменьшает количество ошибок. То, к чему он не готов, — это «автоматический доктор», который ставит диагноз самостоятельно, без контекста и клинической ответственности. Специалист представляет себе интеграцию «человек в центре, ИИ как второй пилот»: цифровой помощник помогает с симптомами и направлениями, всегда уточняя свои ограничения. Во время консультации он может предлагать предупреждения о лекарствах или составлять клиническое резюме, а в управлении — оптимизировать смены и аудиты. «Ключом является безопасность, аудит и прозрачность: кто использовал ИИ, что он рекомендовал и на основании каких доказательств». Чтобы избежать трагедий, подобных той, что произошла с Тирни, Сеоане предлагает три уровня регулирования. Во-первых, клиническая валидация в зависимости от уровня риска: «чем больше влияние на здоровье, тем строже должны быть испытания до и после использования». Во-вторых, управление данными: качество, согласие и репрезентативность. «Мы не хотим моделей, которые хорошо работают только для одной группы». И в-третьих, прозрачность и ответственность: «пользователь должен знать, что делает инструмент, чего он не делает, на основании каких доказательств он был валидирован и кто несет ответственность в случае ошибки». Консультант напоминает, что существуют международные стандарты и что многие системы медицинского ИИ уже рассматриваются регулирующими органами как медицинские устройства. «Существуют правила для разработки, тестирования, обновления и мониторинга этих инструментов, как и в случае с электрокардиографом, только здесь устройством является алгоритм». В заключение Сеоане резюмирует свою позицию фразой, которая может служить руководством для эпохи цифрового здравоохранения: «Ответственная инновация — это не торможение, а продвижение вперед на основе доказательств, четких правил и с профессионалом в качестве гаранта окончательного решения».
