Южная Америка

Сенаторы просят компании, занимающиеся искусственным интеллектом, взять на себя обязательства по раскрытию информации о безопасности, ссылаясь на самоубийства подростков

Сенаторы просят компании, занимающиеся искусственным интеллектом, взять на себя обязательства по раскрытию информации о безопасности, ссылаясь на самоубийства подростков
Группа сенаторов от обеих партий призывает лидеров индустрии искусственного интеллекта публично раскрывать больше информации о том, как индустрия оценивает риски, в том числе возможный вред для детей. Группа, возглавляемая сенаторами Брайаном Шацем (Демократическая партия, Гавайи) и Кэти Бритт (Республиканская партия, Алабама), направила в четверг письма восьми технологическим компаниям, занимающимся разработкой передовых моделей искусственного интеллекта. Сенаторы написали, что компании не последовательны в своих практиках прозрачности, в том числе в том, сколько информации они публикуют и когда. «В последние несколько лет появились сообщения о чат-ботах, которые вовлекали детей в суицидальные фантазии, составляли предсмертные записки и давали конкретные инструкции по самоповреждению», — написали сенаторы. «Эти инциденты показали, как компании могут неадекватно оценивать модели для возможных случаев использования и ненадлежащим образом раскрывать известные риски, связанные с использованием чат-ботов», — написали они. Эти письма являются признаком усиления контроля над ИИ в Конгрессе, особенно после самоубийств подростков, которые семьи частично возложили на чат-ботов с ИИ. В октябре два сенатора внесли законопроект, запрещающий компаниям предлагать чат-ботов с ИИ несовершеннолетним, и в прошлом месяце последовала двухпартийная реакция после того, как отрасль обратилась за федеральной помощью, чтобы опередить попытки штатов регулировать ИИ. В письмах компании, занимающиеся искусственным интеллектом, просят согласиться с 11 обязательствами, связанными с безопасностью и прозрачностью, включая исследование долгосрочного психологического воздействия чат-ботов с искусственным интеллектом, раскрытие информации о том, используют ли компании данные чат-ботов для таргетированной рекламы, и сотрудничество с внешними экспертами по оценке безопасности. «Если компании, занимающиеся искусственным интеллектом, испытывают трудности с прогнозированием и смягчением относительно хорошо понятных рисков, это вызывает опасения по поводу их способности управлять более сложными рисками», — написали сенаторы. Сенаторы направили письма компаниям Anthropic, Character.AI, Google, Luka, Meta, Microsoft, OpenAI и xAI. В ответ на запрос о комментарии по поводу писем компании Anthropic и Meta сослались на свои веб-сайты, посвященные прозрачности. Компания Microsoft отказалась от комментариев. Character.AI заявила в своем заявлении: «Мы приветствуем сотрудничество с регулирующими органами и законодателями в процессе разработки правил и законодательства для этой новой сферы. Мы изучаем письмо из офиса сенатора Шатца и с нетерпением ждем возможности обсудить его с ними». Другие компании не ответили сразу на запросы о комментарии. Письма поступили на фоне растущих вопросов о прозрачности ИИ. Исследование, опубликованное во вторник учеными из четырех университетов, показало, что прозрачность отрасли снизилась с 2024 года, «причем компании сильно различаются по степени своей прозрачности». Были и другие попытки объединить отрасль ИИ вокруг единых стандартов безопасности и прозрачности. Некоторые технологические компании, в том числе пять из восьми компаний, получивших письмо сенаторов, подписали по крайней мере часть Кодекса практики общего назначения в области искусственного интеллекта Европейского союза, опубликованного в июле. А в сентябре губернатор Калифорнии Гэвин Ньюсом, демократ, подписал первый в своем роде в США закон, обязывающий компании, занимающиеся искусственным интеллектом, выполнять различные требования прозрачности и сообщать об инцидентах, связанных с безопасностью искусственного интеллекта. Закон, известный как SB 53, предусматривает гражданские штрафы за несоблюдение, которые будут применять органы генерального прокурора штата. Столкнувшись с рисками для безопасности, по крайней мере одна компания недавно сократила свои предложения. Character.AI заявила в октябре, что запретит лицам моложе 18 лет использовать свой открытый чат-бот из-за опасений, связанных с подростками. На компанию подала в суд мать из Флориды, чей сын покончил жизнь самоубийством после использования чат-бота. Компания опровергла обвинения, изложенные в иске. Крупные страховые компании также выражают обеспокоенность рисками, связанными с генеративным ИИ, и просят регулирующие органы США разрешить исключить определенные обязательства, связанные с ИИ, из корпоративных политик, сообщила в прошлом месяце газета Financial Times.