Южная Америка

Согласно новому отчету, меры безопасности ведущих компаний в области искусственного интеллекта являются недостаточными

Согласно новому отчету, меры безопасности ведущих компаний в области искусственного интеллекта являются недостаточными
В то время как ведущие компании в области искусственного интеллекта выпускают все более совершенные системы ИИ, новый отчет бьет тревогу по поводу отставания некоторых из этих компаний в области безопасности. В отчете «Индекс безопасности ИИ зимой 2025 года», в котором анализируются протоколы безопасности восьми ведущих компаний в области ИИ, отмечается, что их подходы «не содержат конкретных мер безопасности, независимого надзора и надежных долгосрочных стратегий управления рисками, которые требуются для таких мощных систем». Сабина Нонг, исследователь в области безопасности ИИ в некоммерческой организации Future of Life Institute (FLI), которая подготовила отчет и занимается решением проблем, связанных с крупномасштабными рисками от таких технологий, как ядерное оружие и ИИ, сказала в интервью на семинаре San Diego Alignment Workshop, что анализ выявил различия в подходах организаций к безопасности. «Мы видим две группы компаний с точки зрения их обещаний и практик в области безопасности», — сказала Нонг. «Три компании лидируют: Anthropic, OpenAI, Google DeepMind, в этом порядке, а затем пять других компаний находятся на следующем уровне». В нижний уровень пяти компаний входят xAI и Meta, а также китайские компании Z.ai, DeepSeek и Alibaba Cloud, занимающиеся искусственным интеллектом. Китайские модели все чаще используются в Кремниевой долине, поскольку их возможности быстро развиваются, и они легко доступны, поскольку в основном являются открытыми. Anthropic, компания с самым высоким рейтингом в списке, получила оценку C+, а Alibaba Cloud, компания с самым низким рейтингом, получила оценку D-. Индекс оценивал 35 показателей безопасности в шести областях, включая практику оценки рисков компаний, протоколы обмена информацией и защиту информаторов, а также поддержку исследований в области безопасности ИИ. Восемь независимых экспертов в области ИИ, в том числе профессор Массачусетского технологического института Дилан Хадфилд-Менелл и профессор Китайской академии наук И Цзэн, оценили выполнение компаниями показателей безопасности. Президент FLI Макс Тегмарк, профессор Массачусетского технологического института, сказал, что отчет предоставляет явные доказательства того, что компании, занимающиеся ИИ, мчатся навстречу опасному будущему, отчасти из-за отсутствия регулирования в области ИИ. «Единственная причина, по которой в отчете так много оценок C, D и F, заключается в том, что регулирование в области ИИ менее строгое, чем в области производства сэндвичей», — сказал Тегмарк NBC News, имея в виду продолжающееся отсутствие адекватного законодательства в области ИИ и устоявшийся характер регулирования в области безопасности пищевых продуктов. В отчете рекомендуется, чтобы компании, занимающиеся ИИ, делились большим объемом информации о своих внутренних процессах и оценках, привлекали независимых экспертов по оценке безопасности, активизировали усилия по предотвращению психозов и вреда, связанных с ИИ, а также сократили лоббистскую деятельность, среди прочих мер. Тегмарк, Нонг и FLI особенно обеспокоены потенциальной способностью систем ИИ наносить катастрофический вред, особенно с учетом призывов лидеров в области ИИ, таких как Сэм Альтман, генеральный директор OpenAI, создавать системы ИИ, которые будут умнее людей — также называемые искусственным сверхразумом. «Я не думаю, что компании готовы к экзистенциальному риску, связанному с сверхинтеллектуальными системами, которые они собираются создать и к которым так стремительно идут», — сказал Нонг. Отчет, опубликованный в среду утром, появился вслед за несколькими запусками моделей ИИ, раздвигающих границы возможного. Модель Gemini 3 от Google, выпущенная в конце ноября, установила рекорды по производительности в серии тестов, предназначенных для измерения возможностей систем ИИ. В понедельник одна из ведущих китайских компаний в области ИИ, DeepSeek, выпустила передовую модель, которая, по-видимому, соответствует возможностям Gemini 3 в нескольких областях. Хотя тесты на возможности ИИ все чаще подвергаются критике как несовершенные, отчасти из-за того, что системы ИИ могут стать чрезмерно сосредоточенными на прохождении конкретной серии нереалистичных испытаний, рекордные результаты новых моделей свидетельствуют о относительной производительности систем по сравнению с конкурентами. Несмотря на то, что новая модель DeepSeek демонстрирует возможности, близкие к пределу возможностей ИИ, в отчете по индексу безопасности, опубликованном в среду, говорится, что DeepSeek не соответствует многим ключевым требованиям безопасности. В отчете DeepSeek заняла предпоследнее место из восьми компаний по общему показателю безопасности. Независимая комиссия, подготовившая отчет, обнаружила, что, в отличие от всех ведущих американских компаний, DeepSeek не публикует никаких рамок, описывающих ее оценки или меры по снижению рисков, связанных с безопасностью, и не раскрывает политику информирования о нарушениях, которая могла бы помочь выявить ключевые риски, связанные с моделями ИИ. В настоящее время компании, работающие в Калифорнии, обязаны разработать рамки, определяющие политику безопасности и механизмы тестирования. Эти рамки могут помочь компаниям избежать серьезных рисков, таких как возможность использования продуктов искусственного интеллекта в кибератаках или при разработке биологического оружия. В отчете DeepSeek отнесена к нижнему уровню компаний, уделяющих внимание безопасности. «Компании нижнего уровня по-прежнему не соответствуют базовым требованиям, таким как рамки безопасности, структуры управления и комплексная оценка рисков», — говорится в отчете. Тегмарк сказал: «Компании второго уровня были полностью одержимы идеей догнать технический прогресс, но теперь, когда они это сделали, у них больше нет оправдания, чтобы не уделять приоритетное внимание безопасности». Достижения в области искусственного интеллекта недавно попали в заголовки новостей, поскольку системы искусственного интеллекта все чаще применяются в продуктах, ориентированных на потребителей, таких как приложение OpenAI Sora для генерации видео и модель Google Nano Banana для генерации изображений. Однако в отчете, опубликованном в среду, утверждается, что неуклонный рост возможностей значительно опережает любые усилия, направленные на обеспечение безопасности. «Этот растущий разрыв между возможностями и безопасностью делает сектор структурно не готовым к рискам, которые он активно создает», — говорится в отчете. Этот репортер является стипендиатом Tarbell Fellow, финансируемым Tarbell Center for AI Journalism, некоммерческой организацией, занимающейся поддержкой освещения новостей об искусственном интеллекте. Tarbell Center получил финансирование от Future of Life Institute, который является предметом этой статьи. Центр Тарбелл не участвовал в подготовке репортажа NBC News.