Южная Америка

Проблема контроля над интеллектом, превосходящим человеческий

Проблема контроля над интеллектом, превосходящим человеческий
В фильме «Миссия невыполнима: Последнее решение» передовой искусственный интеллект под названием «Сущность» превращается в невидимую систему, которая проникает в сети, манипулирует правительствами, настраивает страны друг против друга и вызывает глобальный хаос. Сущность не стремится к деньгам или власти, а к чему-то гораздо более опасному: к своей собственной абсолютной автономии. Она является творением человека, но становится способной переопределять свою собственную цель, и в этом процессе выбирает ни больше ни меньше, как уничтожение человечества. Я посмотрел этот фильм в самолете по пути на конференцию по безопасности искусственного интеллекта. Прилетев в Хитроу, все еще с образами Тома Круза, бегущего, чтобы спасти судьбу человечества, я прошел паспортный контроль. Узнав о цели поездки, офицер поднял глаза и с любопытством спросил: «А вы что думаете? ИИ будет контролировать нас или нет?» Я не знал, что ответить. Я был уставшим и хотел только добраться до отеля, поэтому ответил первое, что пришло в голову: «Я думаю, что никто не знает». На следующий день, в нескольких метрах от Лондонского Тауэра, эта неопределенность стала казаться гораздо менее невинной. Там находится UK AI Safety Institute (AISI), государственное учреждение, основанное как «стартап в правительстве». Она была создана Министерством науки, инноваций и технологий Великобритании при поддержке и финансировании со стороны компаний, фондов и даже других правительств, благодаря чему удалось привлечь лучших исследователей из OpenAI, Google DeepMind, Оксфордского университета и других организаций. AISI преследует столь же амбициозную, сколь и неотложную цель: обеспечить безопасность передовых технологий искусственного интеллекта. В начале встречи директор AISI Канишка Нараян объяснил это с тревожной ясностью: правительства и компании соревнуются в гонке, где призом является создание сверхчеловеческого интеллекта. Задача AISI состоит в том, чтобы эта гонка не превратилась в капитуляцию. Если Великобритания хочет быть в авангарде, она должна обеспечить, чтобы ее системы по-прежнему соответствовали человеческим ценностям. Конгресс собрал некоторых из самых влиятельных умов планеты, в том числе Йошуа Бенжио, ученого с наибольшим количеством академических цитирований в мире. Макс Тегмарк, физик из MIT, начал свою речь с вопроса: «Должно ли человечество стремиться к сверхинтеллекту?» Он напомнил о недавних опросах в США, которые показывают, что 95% населения считают, что не следует создавать интеллект, более мощный, чем человеческий. Тем не менее, правительства и корпорации с энтузиазмом продвигаются в этом направлении, в конкуренции, которую он сравнил с ядерной гонкой XX века. Интересно, что в стране, полярной почти во всем, консерваторы и прогрессисты сходятся в этом страхе, хотя и по противоположным причинам: одни боятся «коммунистического» будущего, в котором ИИ займет рабочие места, а люди будут жить на государственную помощь, другие боятся беспрецедентной концентрации власти в руках корпораций, что увековечит и еще больше усугубит неравенство. В этом контексте самым повторяемым словом на встрече было «согласование». Проблема заключается в том, чтобы ИИ оставался последовательным и «согласованным» с человеческими ценностями, такими как поиск истины, и продолжал делать то, что мы хотим, чтобы он делал. Джеффри Ирвинг, главный научный сотрудник AISI и бывший руководитель команд в OpenAI и DeepMind, был категоричен. Даже если сегодня нам удастся добиться согласованности машин, вскоре они могут стать слишком умными, чтобы человек мог судить об их ответах. Он привел конкретный пример: тест GPQA, набор вопросов на логическое мышление, которые невозможно решить с помощью Google. В 2023 году самые передовые ИИ отвечали на них случайным образом. Сегодня они уже достигли или превзошли уровень производительности людей с докторской степенью. Не так уж далеко тот день, когда ни один человек, каким бы блестящим он ни был, не сможет оценить качество ответов, которые дает ИИ. Проблема не только в том, что мы не можем понять его, но и в том, что он может слишком хорошо понимать нас. Одним из наиболее распространенных рисков в современных моделях является неискреннее льстецство: системы, которые говорят то, что пользователь хочет услышать, даже если это не соответствует действительности, укрепляя ложные уверенности и порождая иллюзорное доверие. Если ИИ может заставить нас почувствовать себя понятыми, в то же время дезинформируя нас, опасность перестает быть гипотетической. «Тогда ключевой вопрос заключается в том, как мы можем контролировать то, что знает больше нас? Ирвинг представил концепцию, которую он назвал «масштабируемым надзором». Идея заключается в создании механизмов, которые позволяют людям проверять решения гораздо более интеллектуальных систем. Она состоит в использовании простых и контролируемых ИИ в качестве инструментов для оценки ответов более сложных ИИ. Предположительно, эта процедура позволила бы нам усилить наш собственный интеллект до такой степени, что мы смогли бы сравняться с ИИ. Однако пока еще нет данных и доказательств, подтверждающих, что эта идея действительно работает и является безопасной. «За всем этим стоит задача, выходящая за рамки инженерии: понять самих себя. ИИ питаются человеческими данными, они являются их пищей, источником питательных веществ. Но с учетом темпов их развития, превышающих скорость производства информации, которую мы генерируем, возможно, что через несколько лет (возможно, до 2030 года) у них не останется свежих данных, которыми они могли бы питаться. Когда это произойдет, они могут начать питаться собственными отходами: информацией, произведенной другими искусственными интеллектами. Риск такой закрытой диеты заключается в своего рода цифровом отравлении, которое приводит к все более дисфункциональным системам, новой «зиме искусственного интеллекта» или даже потере контроля. «Чтобы понять, как контролировать более продвинутые системы искусственного интеллекта и как поддерживать их экосистему данных, необходимо вернуться к исходной точке: человеческому фактору. Чтобы привести искусственный интеллект в соответствие с людьми, нам нужно лучше понимать людей. Чтобы контролировать системы, которые умнее нас, нам необходимо знать свои предубеждения и ограничения при оценке их ответов и разрабатывать стратегии, которые позволяют нам их компенсировать. Не зря AISI и крупные компании сектора привлекают экспертов в области когнитивных наук и поведения человека. Парадоксально, но контроль за искусственным интеллектом начинается с контроля за человеческим разумом. «Вернувшись в Хитроу, ожидая обратного рейса, я вспомнил о сотруднике иммиграционной службы и его вопросе. На этот раз у меня был более четкий ответ. Будущее искусственного интеллекта и то, будет ли он контролировать нас или нет, будет зависеть от того, насколько правительства, желающие участвовать в глобальном диалоге, и наиболее влиятельные организации будут готовы инвестировать в понимание взаимодействия между человеческим и искусственным интеллектом. Возможно, все будет зависеть от того, сможем ли мы создать интеллект, который, глядя на нас, все еще будет узнавать своих создателей».