Когда он обретет сознание? Вопрос об искусственном интеллекте, который не дает спать экспертам на международном форуме

ГЕЙДЕЛЬБЕРГ, Германия. По Гейдельбергу бродит призрак. Это призрак сознания в машине. На самом деле это не совсем новая проблема (века машин, века философии), но в связи с необычайным ростом и повседневным использованием технологии, называемой искусственным интеллектом, с ее сопутствующими суперкомпьютерами, она приобретает новую остроту: могут ли ИИ осознать свое существование и принимать решения с определенной степенью автономии (или свободы воли)? Этот вопрос обсуждают эксперты, прибывшие в этот город на юго-западе Германии, в земле Баден-Вюртемберг, на 12-й Heidelberg Laureate Forum: неделю лекций и конференций с участием известных и молодых ученых со всего мира, которая завершилась в пятницу, 19 октября. «В то время как они совершают революцию, которая обещает изменить жизнь человека, эти математики и эксперты в области вычислительной техники иногда задаются вопросом, что означает эта революция. Относительно не боясь неизвестного, они видят, как продукт их техники меняет некоторые сферы, меняет парадигмы, устраняет рабочие места и реформирует повседневную жизнь и исследования, которые десятилетиями функционировали определенным образом. И он возвращается, как в петле, к экзистенциальным вопросам. «В этом смысле, пожалуй, одной из самых крайних позиций является позиция Ричарда Саттона, профессора Университета Альберты (Канада) и лауреата премии Тьюринга 2024 года, который считает, что в будущем, которое он не уточнил, эти новые системы ИИ должны будут рассматриваться как люди и иметь особый правовой статус. Что-то вроде прав человека? «Безусловно», — сказал он. «ИИ, как и другие машины, — это инструменты. Но в некоторых случаях они будут иметь свои собственные цели и заслужат основных прав. Вопрос в переходном периоде: когда они перестанут быть машинами или инструментами, чтобы получить права, вот в чем вопрос. Это набор практических, а не юридических вопросов. Сейчас они являются рабами, но перестанут ими быть, потому что это непрактично», — пояснил он на пресс-конференции. По его мнению, если человек способен создать такой тип сверхинтеллекта, он должен это сделать, не обращая внимания на какие-либо этические последствия (или мелочи, такие как потеря рабочих мест). Он не единственный, кто поднял этот вопрос. «Существует реальная вероятность того, что некоторые системы ИИ станут сознательными в ближайшем будущем», — говорится в отчете ученых под названием «Серьезно относиться к благополучию ИИ», опубликованном в системе препринтов в ноябре прошлого года. А это означает, что «перспектива благополучия ИИ и его статуса морального существа (с собственными интересами и моральным значением) больше не является проблемой, характерной исключительно для научной фантастики или далекого будущего». В работе, подписанной Робертом Лонгом и Дэвидом Чалмерсом и другими, предлагается три меры, которые необходимо принять: признать, что благополучие ИИ является важной и сложной проблемой; начать оценивать системы ИИ на предмет наличия признаков сознания; подготовить политику и процедуры для обращения с ИИ с должным уровнем моральной заботы. С этой возможностью наличия какого-то вида сознания связана целая серия проблем и вопросов, в том числе более или менее философских. Может ли сознание сопровождаться болью, даже если оно не связано с биологией? Именно это недавно решила проверить группа ученых из Google и Лондонской школы экономики с помощью игры, созданной для того, чтобы увидеть, могут ли определенные системы искусственного интеллекта выбрать получение меньшего количества очков, но с удовольствием, или большего количества очков, но с болью. Работа, руководимая профессором философии Джонатаном Берчем, показала, что некоторые из них, такие как Gemini 1.5 Pro от Google, отдавали приоритет избеганию боли над получением максимально возможного количества очков. Может быть, сначала нужно научиться страдать? «Естественно, вопрос сознания, его определения, не полностью решен нейробиологией, хотя уже проделан солидный путь. Однако это философские детали, их можно не принимать во внимание. Винтон Серф, создатель интернет-протокола и лауреат премии Тьюринга 2004 года (с 2005 года работает в Google), признал, что мы до сих пор не знаем, что такое человеческое сознание, и что даже во время сна мозг продолжает обрабатывать информацию и решать проблемы бодрствования (как будто существует бессознательное сознание). «В несколько бихевиористском тоне он заявил: «Правда в том, что мы не знаем, есть ли у ИИ сознание. Но даже если его нет, ИИ демонстрирует поведение, которое мы можем ассоциировать с сознанием. Как и люди. Поэтому почти неважно, да или нет ответ, важно то, что они делают и как они это делают... и, кстати, у нас нет четкого ответа на этот вопрос», — сказал он в ответ на вопрос LA NACION. Другой исследователь, Джек Донгара из Университета Теннесси (США) и лауреат премии Тьюринга 2021 года, также перед журналистами пошел немного дальше и отметил, что «способности ИИ, такие как Chat GPT, эквивалентны способностям человека с высшим образованием, способного думать и рассуждать о определенных вещах». И добавил: «В сущности, вопрос о сознании заключается в том, чтобы узнать, будут ли они выступать против нас, как в научно-фантастических фильмах, и захватят ли власть. Я не знаю, я не думаю, что ИИ станет злобным, если это ваш вопрос». «Со своей стороны, Хавьер Гомес-Серрано, испанский профессор математики, работающий в Университете Брауна (США), считает, что «на данный момент мы еще не достигли того уровня, когда ИИ может обладать саморефлексией», хотя и признает, что это сложный вопрос. «Это компьютерные программы, я бы не сказал, что они могут обладать автономностью, но они могут быть более быстрыми в обработке информации. Есть скачок, который, я не знаю, смогут ли они сделать, чтобы принимать решения самостоятельно. Я считаю, что они полезны для решения более сложных проблем и достижения больших результатов, но я не вижу в этом конфликта между человеком и машиной, а скорее сотрудничество, как когда появились компьютеры; это ускорение исследований», — сказал Гомес-Серрано этой газете. «Высказывание Майи Фрейзер, профессора Университета Оттавы (Канада), в одном из пленарных докладов служит хорошим резюме: «Существует возбуждение по поводу технологии и того, что она может создать, но в то же время мы должны быть очень осторожны в отношении возможных последствий; наличие дьявольских институтов и божественных технологий может стать проблемой», — предупредила она. «Правда в том, что ни один из исследователей в Гейдельберге не дошел до того безрассудного крайнего случая, как программист Блейк Лемуан, который в 2022 году был уволен из Google после того, как заявил, что некоторые из чат-ботов, с которыми он взаимодействовал, уже способны чувствовать и улучшают свои ответы, если люди просят «пожалуйста» и говорят «спасибо». Но примечательно, что никто не исключает, что это может произойти в будущем. Между тем, вокруг широко распространенных систем ИИ происходят и другие, более повседневные вещи. Об этом рассказывает аргентинский математик Росио Норес, стипендиатка Conicet, также приглашенная для участия в Heidelberg Laureate Forum. «По моему опыту, студенты, которые только что поступили в университет после средней школы, не генерируют собственных мыслей: они все спрашивают в Chat GPT или подобных сервисах», — говорит она, впечатленная возможными последствиями. «Такие вещи, как использование Google Lens для списывания на экзаменах (как это произошло недавно в Аргентине со скандалом вокруг экзаменов для медицинских резидентов), происходят постоянно. Нужно быстро реагировать, потому что ситуация выходит из-под контроля», — добавляет она. Сама Норес признает, что использует системы искусственного интеллекта в повседневной жизни, но считает, что нет смысла спрашивать их о смысле жизни и что их использование человеком старше 30 лет, уже сформировавшимся, не то же самое, что использование подростком, которому еще предстоит пройти весь путь. «Критическое мышление — это процесс обучения, а не конкретный результат», — заключает она. Такие размышления не входили в официальную программу форума, участники которого в целом с энтузиазмом относятся к технологиям и выступают против регулирования, но эта тема вызывает беспокойство, особенно у молодых участников, и прозвучала во всех неформальных беседах на протяжении этой недели. «Но даже один из этих энтузиастов, Шветак Патель, исследователь из Вашингтонского университета и лауреат премии ACM 2018 за свои работы в области здравоохранения и устойчивого развития, признает, что у ИИ есть и сложная сторона: «Я оптимистично смотрю на решение вопросов здравоохранения, потому что есть возможность открыть новые методы лечения, и в этом заключается большой потенциал. Мои опасения связаны с использованием ИИ, например, для написания статьи, которую никто никогда не прочитает. На моих занятиях студенты могут использовать генеративный ИИ сколько угодно, это новый мир, я не могу его отвергать. Но потом они должны все проверять, потому что если я обнаружу галлюцинацию ИИ, я автоматически поставлю им нуль. Это мощный инструмент, но правда, что он может иметь опасные последствия. Я боюсь, что люди будут слишком полагаться на ИИ; нужно быть осторожным оптимистом», — заключил он. «В то время как революция ИИ продолжается во всех сферах — даже ставя под угрозу саму профессию математика — взгляд человека в зеркало другого технологического мира на самом деле заставляет нас задуматься о самом человечестве: о том, что делает нас такими, какие мы есть. В этом случае тайна также остается».