Лауреаты Нобелевской премии призывают установить обязательные международные «красные линии» в области искусственного интеллекта

Более 200 видных политиков и ученых, в том числе 10 лауреатов Нобелевской премии и многие ведущие исследователи в области искусственного интеллекта, в понедельник утром выступили с призывом принять срочные международные меры против опасного использования ИИ. В заявлении, названном «Глобальный призыв к установлению красных линий в области ИИ», содержится предупреждение о том, что «текущая траектория развития ИИ представляет беспрецедентную опасность», и утверждается, что «необходимо международное соглашение о четких и поддающихся проверке красных линиях». В открытом письме содержится призыв к политикам принять это соглашение до конца 2026 года, учитывая быстрый прогресс в области искусственного интеллекта. Лауреат Нобелевской премии мира Мария Ресса объявила об этом письме в своей вступительной речи на неделе высокого уровня Генеральной Ассамблеи Организации Объединенных Наций в понедельник утром. Она призвала правительства объединиться, чтобы «предотвратить общеприемлемые риски» искусственного интеллекта и «определить, что искусственный интеллект никогда не должен быть разрешен». Помимо лауреатов Нобелевской премии по химии, экономике, миру и физике, среди подписавших письмо есть такие известные авторы, как Стивен Фрай и Юваль Ноа Харари, а также бывшие главы государств, в том числе бывший президент Ирландии Мэри Робинсон и бывший президент Колумбии Хуан Мануэль Сантос, лауреат Нобелевской премии мира 2016 года. Джеффри Хинтон и Йошуа Бенжио, лауреаты престижной премии Тьюринга и два из трех так называемых «крестных отцов ИИ», также подписали открытое письмо. Премия Тьюринга часто считается Нобелевской премией в области компьютерных наук. Два года назад Хинтон покинул престижную должность в Google, чтобы привлечь внимание к опасностям неконтролируемого развития искусственного интеллекта. Подписавшиеся под документом представители десятков стран, включая лидеров в области ИИ, таких как США и Китай. «На протяжении тысячелетий люди учились — иногда на собственном горьком опыте — что мощные технологии могут иметь как опасные, так и благотворные последствия», — сказал Харари. «Люди должны согласовать четкие красные линии для ИИ, прежде чем эта технология преобразует общество до неузнаваемости и разрушит основы нашей человечности». Открытое письмо появилось в то время, когда ИИ привлекает все большее внимание. Только за последнюю неделю ИИ попал в заголовки национальных новостей из-за его использования в массовой слежке, предполагаемой роли в самоубийстве подростка и способности распространять дезинформацию и даже подрывать наше общее представление о реальности. Однако в письме содержится предупреждение, что сегодняшние риски ИИ могут быть быстро затменены более разрушительными и масштабными последствиями. Например, в письме упоминаются недавние заявления экспертов о том, что ИИ может в скором времени привести к массовой безработице, искусственно созданным пандемиям и систематическим нарушениям прав человека. В письме не даются конкретные рекомендации, а говорится, что правительственные чиновники и ученые должны договориться о том, где проходят красные линии, чтобы обеспечить международный консенсус. Однако в письме предлагаются некоторые ограничения, такие как запрет на смертоносное автономное оружие, автономное воспроизведение систем ИИ и использование ИИ в ядерной войне. «В наших общих интересах предотвратить нанесение искусственным интеллектом серьезного и потенциально необратимого ущерба человечеству, и мы должны действовать соответственно», — заявил Ахмет Узумчу, бывший генеральный директор Организации по запрещению химического оружия (ОЗХО), которая под руководством Узумчу была удостоена Нобелевской премии мира 2013 года. В качестве доказательства осуществимости этой инициативы в заявлении упоминаются аналогичные международные резолюции, которые установили «красные линии» в других опасных областях, таких как запрет на биологическое оружие или озоноразрушающие хлорфторуглероды. Предупреждения о потенциальных экзистенциальных угрозах со стороны ИИ не являются чем-то новым. В марте 2023 года более 1000 исследователей и лидеров в области технологий, включая Илона Маска, призвали приостановить разработку мощных систем ИИ. Два месяца спустя руководители известных лабораторий ИИ, в том числе Сэм Альтман из OpenAI, Дарио Амодеи из Anthropic и Демис Хассабис из Google DeepMind, подписали однострочное заявление, в котором призывали относиться к экзистенциальной угрозе ИИ для человечества так же серьезно, как к угрозам ядерной войны и пандемий. Альтман, Амодей и Хассабис не подписали последнее письмо, хотя известные исследователи в области ИИ, такие как соучредитель OpenAI Войцех Заремба и ученый DeepMind Иан Гудфеллоу, сделали это. В течение последних нескольких лет ведущие американские компании, занимающиеся искусственным интеллектом, часто заявляли о своем желании разрабатывать безопасные и надежные системы искусственного интеллекта, например, подписав в июле 2023 года соглашение с Белым домом, посвященное вопросам безопасности, и присоединившись к инициативе Frontier AI Safety Commitments на саммите по искусственному интеллекту в Сеуле в мае 2024 года. Однако недавние исследования показали, что в среднем эти компании выполняют только около половины этих добровольных обязательств, и мировые лидеры обвинили их в том, что они ставят прибыль и технический прогресс выше благосостояния общества. Такие компании, как OpenAI и Anthropic, также добровольно разрешают Центру стандартов и инноваций в области ИИ, федеральному ведомству, занимающемуся американскими разработками в области ИИ, и Британскому институту безопасности ИИ тестировать и оценивать модели ИИ на безопасность перед их публичным выпуском. Тем не менее, многие наблюдатели ставят под сомнение эффективность и ограниченность такого добровольного сотрудничества. Хотя открытое письмо, опубликованное в понедельник, повторяет предыдущие усилия, оно отличается тем, что выступает за обязательные ограничения. Это первое открытое письмо, в котором участвуют лауреаты Нобелевской премии из самых разных научных дисциплин. Среди подписавших письмо лауреатов Нобелевской премии — биохимик Дженнифер Даудна, экономист Дарон Аджемоглу и физик Джорджио Паризи. Письмо было опубликовано в начале Недели высокого уровня Генеральной Ассамблеи ООН, в ходе которой главы государств и правительств съезжаются в Нью-Йорк, чтобы обсудить и определить приоритеты политики на предстоящий год. ООН в четверг запустит свой первый дипломатический орган по искусственному интеллекту на мероприятии, которое возглавят премьер-министр Испании Педро Санчес и генеральный секретарь ООН Антониу Гутерриш. Более 60 организаций гражданского общества со всего мира также поддержали это письмо, от аналитического центра Demos в Великобритании до Пекинского института безопасности и управления искусственным интеллектом. Глобальный призыв к установлению красных линий в области ИИ организован тремя некоммерческими организациями: Центром по ИИ, совместимым с человеком, при Калифорнийском университете в Беркли, The Future Society и Французским центром по безопасности ИИ.