От принца Гарри до Стива Бэннона: сотни людей призывают запретить сверхискусственный интеллект

Сотни общественных деятелей, включая ученых-лауреатов Нобелевской премии, бывших военных лидеров, художников и членов британской королевской семьи, подписали в среду заявление с призывом запретить работы, которые могут привести к созданию компьютерного сверхразума — еще недостигнутой стадии искусственного интеллекта, которая, по их мнению, может однажды представлять угрозу для человечества. В заявлении предлагается «запретить разработку сверхинтеллекта» до тех пор, пока не будет достигнут «широкий научный консенсус о том, что это будет сделано безопасно и контролируемо», а также «сильная поддержка со стороны общественности». Заявление, организованное исследователями в области искусственного интеллекта, обеспокоенными быстрыми темпами технологического прогресса, во вторник вечером собрало более 800 подписей от разнообразной группы людей. Среди подписавшихся — лауреат Нобелевской премии и исследователь в области ИИ Джеффри Хинтон, бывший председатель Объединенного комитета начальников штабов Майк Маллен, рэпер Will.i.am, бывший помощник Трампа в Белом доме Стив Бэннон, а также принц Гарри и его жена Меган Маркл. Это заявление пополняет растущий список призывов к замедлению развития ИИ в то время, когда ИИ угрожает переделать большие сегменты экономики и культуры. OpenAI, Google, Meta и другие технологические компании вкладывают миллиарды долларов в новые модели ИИ и центры обработки данных, которые их питают, в то время как предприятия всех видов ищут способы добавить функции ИИ в широкий спектр продуктов и услуг. Некоторые исследователи в области искусственного интеллекта считают, что системы ИИ развиваются достаточно быстро, и в скором времени они продемонстрируют так называемый искусственный общий интеллект, или способность выполнять интеллектуальные задачи, как это делает человек. Исследователи и руководители технологических компаний полагают, что следующим шагом может стать появление сверхинтеллекта, при котором модели ИИ будут работать даже лучше, чем самые опытные люди. Это заявление было сделано Future of Life Institute, некоммерческой организацией, которая занимается крупномасштабными рисками, такими как ядерное оружие, биотехнологии и ИИ. Среди первых спонсоров организации в 2015 году был технологический миллиардер Илон Маск, который сейчас участвует в гонке по разработке ИИ со своим стартапом xAI. По данным института, в настоящее время его крупнейшим донором является Виталик Бутерин, соучредитель блокчейна Ethereum, и организация заявляет, что не принимает пожертвования от крупных технологических компаний или компаний, стремящихся создать искусственный общий интеллект. Его исполнительный директор Энтони Агирре, физик из Калифорнийского университета в Санта-Крузе, сказал, что развитие ИИ происходит быстрее, чем общественность может понять, что происходит и что будет дальше. «В некоторой степени этот путь был выбран для нас компаниями и основателями ИИ, а также экономической системой, которая их движет, но никто на самом деле не спросил почти никого другого: «Это то, что мы хотим?» — сказал он в интервью. «Для меня было довольно удивительно, что практически не велось открытого обсуждения вопросов: «Хотим ли мы этого? Хотим ли мы системы ИИ, заменяющие человека?», — сказал он. «Это воспринимается как: ну, так вот как обстоят дела, так что пристегните ремни, и нам просто придется смириться с последствиями. Но я не думаю, что на самом деле все так. У нас есть много вариантов развития технологий, в том числе и этой». Это заявление не направлено против какой-либо конкретной организации или правительства. Агирре сказал, что он надеется инициировать дискуссию, в которой примут участие не только крупные компании, занимающиеся искусственным интеллектом, но и политики из США, Китая и других стран. Он считает, что проиндустриальные взгляды администрации Трампа на искусственный интеллект нуждаются в уравновешивании. «Это не то, чего хочет общественность. Они не хотят участвовать в этой гонке», — сказал он. Он сказал, что в конечном итоге может потребоваться международный договор о передовом ИИ, как и в случае с другими потенциально опасными технологиями. Белый дом не сразу ответил на запрос о комментарии по поводу этого заявления во вторник, до его официального выпуска. Согласно опросу NBC News Decision Desk Poll, проведенному SurveyMonkey в этом году, американцы почти поровну разделились по поводу потенциального воздействия ИИ. В то время как 44% опрошенных взрослых американцев считают, что ИИ улучшит их жизнь и жизнь их семей, 42% считают, что он ухудшит их будущее. Высшие руководители технологических компаний, которые делали прогнозы о сверхинтеллекте и сигнализировали, что работают над его созданием, не подписали заявление. Генеральный директор Meta Марк Цукерберг заявил в июле, что сверхинтеллект «уже близок». Маск в феврале написал в X, что появление цифрового сверхразума «происходит в режиме реального времени», и ранее предупреждал о «роботах, которые будут ходить по улицам и убивать людей», хотя сейчас Tesla, где Маск является генеральным директором, работает над созданием гуманоидных роботов. Генеральный директор OpenAI Сэм Альтман заявил в прошлом месяце, что будет удивлен, если сверхразум не появится к 2030 году, и в январском посте в блоге написал, что его компания обращает свое внимание на эту область. Несколько технологических компаний не сразу ответили на запросы о комментарии по поводу этого заявления. На прошлой неделе Институт будущего жизни сообщил NBC News, что OpenAI выдал повестки в суд ему и его президенту в качестве меры возмездия за призыв к надзору за ИИ. Директор по стратегии OpenAI Джейсон Квон написал 11 октября, что повестка в суд была результатом подозрений OpenAI в отношении источников финансирования нескольких некоммерческих групп, которые критиковали его реструктуризацию. Среди других подписавших заявление — соучредитель Apple Стив Возняк, соучредитель Virgin Group Ричард Брэнсон, ведущий консервативного ток-шоу Гленн Бек, бывший советник по национальной безопасности США Сьюзан Райс, лауреат Нобелевской премии по физике Джон Мэзер, лауреат премии Тьюринга и исследователь ИИ Йошуа Бенжио, а также священник Паоло Бенанти, советник Ватикана по ИИ. Несколько исследователей в области искусственного интеллекта из Китая также подписали заявление. Агирре сказал, что цель состояла в том, чтобы собрать широкий круг подписантов из всех слоев общества. «Мы хотим, чтобы это стало социальным разрешением для людей говорить об этом, но мы также очень хотим показать, что это не нишевая проблема каких-то компьютерных гениев из Кремниевой долины, которые часто являются единственными участниками дискуссии. Это проблема всего человечества», — сказал он.