Что мы рассказываем искусственному интеллекту
Как и многие, в последние годы я всё чаще прибегаю к помощи чат-ботов на основе генеративного искусственного интеллекта для решения самых разных задач (но не беспокойтесь, уважаемая редакция и читатели, это не касается моих колонок в этом издании). Мы спрашиваем их, как составить длинное письмо, подготовить презентацию, разобраться в медицинской проблеме, организовать отпуск или даже как выйти из неловкой ситуации. Список становится все длиннее. И в некотором смысле это хорошая новость. Искусственный интеллект — один из самых революционных и демократизирующих инструментов, которые мы видели за последние десятилетия. Он делает специализированные знания доступнее, снижает затраты на доступ к сложной информации и позволяет многим людям ориентироваться в вопросах, для которых в противном случае потребовались бы время, ресурсы или специалисты, которые зачастую не находятся в их непосредственной доступности. Но именно потому, что его использование стало повседневным, стоит остановиться на неудобном вопросе: что происходит со всем тем личным или конфиденциальным, о чем мы ему рассказываем? Обещание этих инструментов заключается в их полезности. Риск, порой незаметный для многих (включая меня), заключается в том, что эта полезность основана на том, что мы передаем им информацию, которой в других обстоятельствах мы бы никогда не поделились с третьими лицами. И это риск, который становится все более реальным и важным для рассмотрения. Первое предупреждение исходит из юридической сферы, но иллюстрирует гораздо более широкую проблему. Несколько недель назад суд в Нью-Йорке постановил, что взаимодействие обвиняемого с Claude не подпадает под действие привилегии конфиденциальности, присущей отношениям между адвокатом и клиентом. Суд высказался категорично: поделившись этой информацией с платформой, пользователь передал третьей стороне конфиденциальные сведения, которые могли бы свидетельствовать против него, тем самым утратив разумное ожидание конфиденциальности. С разницей в несколько дней другой суд в Мичигане принял иное решение, постановив, что взаимодействие истца с ChatGPT в рамках гражданского процесса может оставаться защищенным, поскольку этот инструмент служил лишь для упорядочивания его собственных идей и стратегий в отношении судебного разбирательства. Описывая чат-бота как «инструмент, а не человека», суд пришел к выводу, что его использование само по себе не означает отказа от такой защиты. Тот факт, что с разницей всего в несколько дней два суда пришли к разным выводам в делах, связанных с использованием искусственного интеллекта, показывает, насколько мы находимся на еще неопределенной территории, последствия которой по-прежнему трудно предсказать как для обычных пользователей, так и для специалистов. Эта проблема не ограничивается только Соединенными Штатами. В Великобритании суд недавно предупредил, что когда юристы вводят конфиденциальную информацию своих клиентов в открытый инструмент, такой как ChatGPT, это на практике равносильно тому, что они выносят эту информацию в общественное достояние, нарушая принцип конфиденциальности, который защищает их профессию, и ставя под угрозу эту профессиональную привилегию. Следует уточнить, что этот риск не ограничивается судебными разбирательствами и не касается только юристов. Давайте подумаем о чем-то гораздо более повседневном: о человеке, который, обеспокоенный физическими симптомами или своим психическим здоровьем, решает сначала обратиться к чат-боту, прежде чем идти к специалисту. Честь признаться, я сам так поступил две недели назад. Разумеется, я не хочу тем самым предлагать или поощрять использование этих инструментов в качестве терапевтов или врачей. Суть гораздо проще: факт, что многие люди уже так поступают, будь то из-за тревоги, стеснения или просто из-за отсутствия быстрого доступа к технической информации. И здесь возникает «серая зона», о которой нужно помнить. В отличие от разговора с врачом или медицинским специалистом, где существует профессиональный долг конфиденциальности, взаимодействие с технологической платформой не всегда пользуется аналогичной защитой. Более того, политика конфиденциальности многих из этих платформ — с которой мы обычно соглашаемся, не прочитав — предусматривает сбор как наших сообщений, так и полученных ответов с целью постоянного улучшения и совершенствования этих инструментов. Это не означает, что любой разговор автоматически становится публичным, но подразумевает, что нам следует отказаться от опасного заблуждения: представления о том, что разговор с чат-ботом — это как разговор с человеком, обязанным хранить тайну. Потому что это не так. Парадокс искусственного интеллекта заключается в том, что чем более незаменимым он становится, тем больше мы склонны ослаблять свою защиту и доверять ему части нашей личной жизни или секреты: семейные заботы, проблемы на работе, медицинские сомнения, юридические стратегии или эмоциональные переживания. Несомненно, его использование демократизирует доступ, ориентацию и производительность. Все это заслуживает одобрения. Но эта демократизация также может сопровождаться молчаливой сдачей нашей личной жизни. Таким образом, вопрос уже не только в том, что искусственный интеллект может сделать для нас. Он также заключается в том, от чего мы готовы отказаться или что готовы поставить под угрозу, прибегая к его помощи.
