Пользователи даркнета используют Grok как инструмент для создания «криминальных изображений» детей, сообщает британский надзорный орган
Британская организация, занимающаяся борьбой с сексуальным насилием над детьми в Интернете, заявила в среду, что ее исследователи заметили, как пользователи даркнета обменивались «криминальными изображениями», которые, по словам пользователей, были созданы инструментом искусственного интеллекта Grok, разработанным Илоном Маском. Изображения, которые, по словам группы, включали фотографии несовершеннолетних девочек с обнаженной грудью, кажутся более экстремальными, чем недавние сообщения о том, что Grok создавал изображения детей в откровенной одежде и сексуальных сценах. Фонд Internet Watch Foundation, который на протяжении многих лет предупреждал о создаваемых искусственным интеллектом изображениях сексуального насилия над детьми, заявил в своем заявлении, что эти изображения распространились на форуме в даркнете, где пользователи обсуждали возможности Grok. Фонд заявил, что эти изображения являются незаконными и что компания xAI Маска не должна выпускать такое программное обеспечение. «После сообщений о том, что чат-бот Grok с искусственным интеллектом создал изображения сексуального характера с участием детей, мы можем подтвердить, что наши аналитики обнаружили преступные изображения детей в возрасте от 11 до 13 лет, которые, по всей видимости, были созданы с помощью этого инструмента», — заявила в своем заявлении Нгайре Александер, руководитель горячей линии Internet Watch Foundation. Поскольку создание и хранение материалов с изображением насилия над детьми является незаконным, люди, заинтересованные в их торговле или продаже, часто используют программное обеспечение, предназначенное для маскировки своей личности или коммуникаций в средах, которые иногда называют дарквебом. Как и американский Национальный центр по делам пропавших и эксплуатируемых детей, Internet Watch Foundation является одной из немногих организаций в мире, которые сотрудничают с правоохранительными органами в целях удаления материалов, связанных с насилием над детьми, из темных и открытых пространств Интернета. Такие группы, как Internet Watch Foundation, могут в соответствии со строгими протоколами оценивать материалы, предположительно связанные с сексуальным насилием над детьми, и передавать их правоохранительным органам и платформам для удаления. xAI не ответила сразу на запрос о комментарии в среду. Это заявление было сделано в связи с тем, что xAI подвергается шквалу критики со стороны государственных регулирующих органов по всему миру в связи с изображениями, созданными ее программным обеспечением Grok за последние несколько дней. Это произошло после того, как в пятницу агентство Reuters сообщило, что Grok создал поток дипфейк-изображений, сексуализирующих детей и несогласных взрослых в X, социальном приложении Маска. В декабре Grok выпустил обновление, которое, по-видимому, способствовало и дало старт тому, что теперь стало тенденцией в X, — просьбам к чат-боту удалять одежду с фотографий других пользователей. Как правило, крупные разработчики генеративных систем искусственного интеллекта пытались добавить ограничения, чтобы пользователи не могли сексуализировать фотографии узнаваемых людей, но пользователи нашли способы создавать такие материалы, используя обходные пути, более мелкие платформы и некоторые модели с открытым исходным кодом. Илон Маск и xAI выделяются среди крупных игроков в области искусственного интеллекта тем, что открыто поддерживают секс на своих платформах искусственного интеллекта, создавая чат-ботов с явно выраженным сексуальным содержанием. Материалы с изображением сексуального насилия над детьми (CSAM) в последние годы являются одной из самых серьезных проблем и предметом борьбы среди создателей генеративного ИИ. Основные разработчики ИИ пытаются удалить CSAM из данных для обучения своих моделей и работают над внедрением адекватных мер безопасности в свои системы, чтобы предотвратить создание новых CSAM. В субботу Маск написал: «Любой, кто использует Grok для создания незаконного контента, понесет те же последствия, что и при загрузке незаконного контента», в ответ на пост другого пользователя, защищающего Grok от критики по поводу этого спора. Условия использования Grok конкретно запрещают сексуализацию или эксплуатацию детей. Британский регулятор Ofcom заявил в понедельник, что ему известно о опасениях, высказанных в СМИ и жертвами, по поводу функции X, которая создает изображения обнаженных людей и сексуализированные изображения детей. «Мы срочно связались с X и xAI, чтобы понять, какие шаги они предприняли для выполнения своих юридических обязательств по защите пользователей в Великобритании. На основании их ответа мы проведем быструю оценку, чтобы определить, существуют ли потенциальные проблемы с соблюдением требований, которые требуют расследования», — заявила Ofcom. Министерство юстиции США в своем заявлении в среду в ответ на вопросы о том, что Grok создает сексуализированные изображения людей, заявило, что этот вопрос является приоритетным, хотя и не упомянуло Grok по имени. «Министерство юстиции очень серьезно относится к материалам с изображением сексуального насилия над детьми, созданным с помощью искусственного интеллекта, и будет жестко преследовать в судебном порядке любого производителя или владельца таких материалов», — заявил представитель министерства. «Мы продолжаем изучать способы оптимизации правоприменения в этой сфере, чтобы защитить детей и привлечь к ответственности лиц, которые используют технологии для нанесения вреда самым уязвимым слоям населения». Александр из Internet Watch Foundation заявила, что материалы с изображением насилия, созданные с помощью Grok, распространяются. «Изображения, которые мы видели до сих пор, находятся не на самом X, а на форуме в даркнете, где пользователи утверждают, что использовали Grok Imagine для создания изображений, включая сексуализированные изображения и изображения девушек с обнаженной грудью», — сказала она в своем заявлении. Она сказала, что изображения, прослеживаемые до Grok, «будут считаться изображениями категории C по британскому законодательству», третьей по серьезности категории изображений. Она добавила, что затем было замечено, как пользователь форума в даркнете использовал «изображения Grok в качестве отправной точки для создания гораздо более экстремальных видео категории A с помощью другого инструмента искусственного интеллекта». Она не назвала этот инструмент. «Вред распространяется», — сказала она. «Нет оправдания выпуску на мировой рынок продуктов, которые могут быть использованы для насилия и причинения вреда людям, особенно детям». Она добавила: «Мы крайне обеспокоены тем, с какой легкостью и скоростью люди могут создавать фотореалистичные материалы с изображением сексуального насилия над детьми. Такие инструменты, как Grok, теперь создают риск того, что изображения детей с сексуальным содержанием, созданные с помощью искусственного интеллекта, станут массовыми. Это недопустимо».
