Южная Америка

Аккаунты, распространяющие материалы о насилии над детьми, наводнили некоторые хэштеги X, поскольку партнер по безопасности прекратил сотрудничество

Аккаунты, распространяющие материалы о насилии над детьми, наводнили некоторые хэштеги X, поскольку партнер по безопасности прекратил сотрудничество
Когда Элон Маск возглавил Twitter в 2022 году, он заявил, что решение проблемы материалов о сексуальном насилии над детьми на платформе является его «главным приоритетом». В то же время компания Thorn, калифорнийская некоммерческая организация, которая сотрудничает с технологическими компаниями, предоставляя технологии, позволяющие обнаруживать и бороться с материалами, содержащими сексуальное насилие над детьми, сообщила NBC News, что расторгла контракт с X. Thorn заявила, что X перестала оплачивать последние счета за свою работу, однако отказалась сообщить подробности сделки с компанией, сославшись на юридическую деликатность. Некоторые из инструментов Thorn предназначены для решения именно этой проблемы, которая, похоже, все больше распространяется на платформе. «Недавно мы расторгли контракт с X из-за неуплаты», - рассказала NBC News Кэсси Коккаро, руководитель отдела коммуникаций Thorn. "И это после месяцев и месяцев работы с клиентами, гибкости, попыток наладить отношения. И в конце концов нам пришлось остановить контракт". В ответ на просьбы о комментарии X не стал обсуждать свои отношения с Торном или продолжающуюся проблему аккаунтов, использующих платформу для продажи материалов о сексуальном насилии над детьми (CSAM). Многие аспекты проблемы рекламы, связанной с эксплуатацией детей, о которой NBC News впервые сообщила в январе 2023 года, остаются на платформе неизменными. Продавцы материалов, содержащих сексуальное насилие над детьми (CSAM), продолжают использовать хэштеги, основанные на ключевых словах сексуального характера, для размещения рекламы среди людей, желающих приобрести CSAM. Их сообщения направляют потенциальных покупателей на другие платформы, где пользователей просят деньги в обмен на материалы, содержащие насилие над детьми. Другие аспекты являются новыми: некоторые аккаунты теперь кажутся автоматизированными (также известными как боты), в то время как другие воспользовались преимуществами «Сообществ», относительно новой функции, запущенной в 2021 году, которая поощряет пользователей X объединяться в группы «ближе к обсуждениям, которые их больше всего волнуют». Используя «Сообщества», рекламодатели CSAM смогли размещать сообщения в группах с десятками тысяч людей, посвященных таким темам, как инцест, и, казалось бы, без особого контроля. Канадский центр защиты детей (C3P), независимая онлайн-группа по наблюдению за CSAM, проверила несколько аккаунтов X и хэштегов, отмеченных NBC News, которые рекламировали продажу CSAM, и перешла по ссылкам, продвигаемым несколькими из этих аккаунтов. Организация заявила, что в течение нескольких минут ей удалось выявить аккаунты, на которых были размещены изображения ранее идентифицированных жертв CSAM в возрасте до 7 лет. Кроме того, она обнаружила очевидные изображения CSAM в миниатюрах, появляющихся на сайте X, и в ссылках на каналы Telegram, где размещались видеоролики CSAM. На одном из таких каналов было показано видео с сексуальным насилием над мальчиком, которому, по оценкам, было всего 4 года. NBC News не просматривала и не имела в своем распоряжении никаких материалов о насилии. Ллойд Ричардсон, директор по информационным технологиям C3P, сказал, что поведение пользователей X уже «немного устарело» и что реакция X «была крайне недостаточной». «Похоже, это немного похоже на игру в вак-а-моль», - сказал он. «X заявляет, что придерживается политики абсолютной нетерпимости »к любым материалам, содержащим или пропагандирующим сексуальную эксплуатацию детей". Анализ множества хэштегов с терминами, которые, как известно, связаны с CSAM, показывает, что проблема, если не сказать больше, усугубилась по сравнению с тем временем, когда Маск только возглавил компанию. Если раньше количество постов составляло менее дюжины в час, то теперь они превратились в поток, создаваемый аккаунтами, которые, похоже, автоматизированы - некоторые публикуют посты по несколько раз в минуту. Несмотря на продолжающийся поток сообщений и спорадические запреты отдельных аккаунтов, хэштеги, за которыми NBC News наблюдал в течение нескольких недель, по состоянию на среду оставались открытыми и доступными для просмотра. Некоторые из хэштегов, по которым в 2023 году NBC News обнаружил рекламу эксплуатации детей, используются для тех же целей и сегодня. Исторически сложилось так, что Twitter, а затем и X пытались блокировать определенные хэштеги, связанные с эксплуатацией детей. Когда NBC News впервые сообщила об использовании X для рекламы CSAM, глава отдела доверия и безопасности X заявил, что компания знает, что ей нужно работать, и будет вносить изменения, включая разработку автоматизированных систем для обнаружения и блокировки хэштегов. В январе 2024 года генеральный директор X Линда Яккарино дала показания сенатскому комитету по судебным делам, заявив, что компания усилила правоприменение, «добавив больше инструментов и технологий для предотвращения распространения, поиска или использования недобросовестными субъектами контента [о сексуальной эксплуатации детей] во всех формах медиа». В мае 2024 года компания X заявила, что помогла Thorn протестировать инструмент для «упреждающего обнаружения детской сексуальной эксплуатации в текстовом виде». Самостоятельно размещенное решение было легко внедрено в наши механизмы обнаружения, что позволило нам отточить учетные записи с высоким риском и расширить охват обнаружения текстов о детской сексуальной эксплуатации, заявили в X". Пайлес Халай, старший менеджер Thorn по работе с клиентами и партнерствам, который курировал контракт с X, сказал, что некоторые из программ Thorn были разработаны для решения проблем, подобных тем, что возникают из-за постов с хэштегом CSAM, но неясно, были ли они когда-либо полностью реализованы. «Они участвовали в бета-тестировании вместе с нами в прошлом году», - сказал он. "Они помогали нам тестировать, дорабатывать и т. д. и, по сути, были ранними последователями продукта. Впоследствии они стали полноправными клиентами продукта, но на данный момент нам не очень понятно, как и использовали ли они его". Без Торна не совсем понятно, какие механизмы обеспечения безопасности детей использует X в настоящее время. "Наша технология разработана с учетом требований безопасности, - говорит Халай. «Платформа должна сама следить за соблюдением правил и использовать технологию надлежащим образом... Мы знаем, что она предназначена для борьбы с теми самыми нарушениями, о которых вы говорите». Халай сказал, что Thorn не отнеслась к расторжению контракта с X легкомысленно. «Для нас это было решение из последних сил», - сказал он. "Мы предоставляли им услуги. Мы делали это так долго, как только могли, исчерпали все возможные способы и в конце концов были вынуждены расторгнуть договор, потому что, будучи некоммерческой организацией, мы не совсем в состоянии помогать содержать такую компанию, как X, где мы несем огромные расходы". В настоящее время некоторые хэштеги, например childporn, блокируются при использовании функции поиска X, но другие хэштеги открыты для просмотра и заполнены сообщениями, рекламирующими CSAM для продажи. NBC News обнаружила сообщения, в которых, судя по всему, продается CSAM, по 23 хэштегам, которые часто используются вместе в сообщениях. NBC News обнаружил только два хэштега, которые были заблокированы X. Хэштеги, которые были доступны для публикации и просмотра во время обзора платформы NBC News, варьировались от ссылок на инцест и подростков до немного более закодированных терминов, таких как сочетания слов с названием недействующей платформы видеочата Omegle, которая закрылась в 2023 году после судебного процесса по делу о сексуальной эксплуатации детей. Некоторые хэштеги содержали перепутанные буквы и содержали только посты с рекламой CSAM, что указывало на то, что они были созданы исключительно с целью размещения рекламы. Некоторые имена пользователей, размещавших объявления, представляли собой просто набор слов, связанных с контентом CSAM на платформе, смешивая названия социальных медиаплатформ с другими ключевыми словами. Многие пользователи в своих сообщениях или биографиях аккаунтов напрямую ссылались на каналы Telegram и содержали явные ссылки на CSAM. Некоторые сообщения ссылались на каналы Discord или просили направлять прямые сообщения для получения ссылок на Discord. Telegram и Discord занимают особое место в экосистеме детской эксплуатации в Интернете, предлагая получастные и частные площадки для людей, желающих продать или купить материалы, связанные с детской эксплуатацией. Ранее NBC News сообщала о 35 случаях, когда взрослые были привлечены к ответственности по обвинению в похищении, обхаживании или сексуальном насилии, которые предположительно были связаны с общением в Discord. Представитель Discord заявил: «Discord не терпит материалов, содержащих сексуальное насилие над детьми, и мы немедленно принимаем меры, когда нам становится об этом известно, включая удаление контента, запрет пользователей и сообщение в Национальный центр пропавших и эксплуатируемых детей (NCMEC)». В ответ на запрос NBC News компания заявила, что удалила несколько серверов «за нарушения политики, не связанные с продажей CSAM». Представитель Telegram заявил: «CSAM однозначно запрещен условиями предоставления услуг Telegram, и такой контент удаляется при обнаружении». Представитель указал на партнерство компании с британским фондом Internet Watch Foundation, который ведет базу данных известных CSAM и предоставляет инструменты для их обнаружения и удаления. В то время как некоторые аккаунты X публично размещали информацию, другие запрашивали и предлагали CSAM через функцию X's Communities, где пользователи создают группы по определенным темам. NBC News обнаружил группы с десятками тысяч участников, в которых предлагалось продать CSAM. В группе с более чем 70 000 участников, посвященной «инцестуозным признаниям», несколько пользователей неоднократно размещали ссылки на каналы Telegram, в которых явно упоминался CSAM. «Я продаю папку 6cp всего за 90 песо», - написал один из пользователей, ссылаясь на аккаунт в Telegram. CP - распространенное в сети сокращение от «детской порнографии». CSAM - вечная проблема Интернета и социальных сетей, и многие компании нанимают специальные команды и создают автоматизированные системы для выявления и удаления оскорбительного контента и тех, кто его распространяет. Однако Маск также ввел радикальные сокращения в командах, занимающихся вопросами доверия и безопасности, и распустил Совет по доверию и безопасности компании. В 2023 году компания заявила, что обнаруживает больше CSAM, чем в предыдущие годы, и что она увеличила штат сотрудников, занимающихся этим вопросом, несмотря на более масштабные увольнения в службах доверия и безопасности. Ричардсон, директор по информационным технологиям C3P, сказал, что хотя X иногда удаляет учетные записи, которые были отмечены как нарушающие правила CSAM, "новая учетная запись появляется через две секунды, так что глубокого исправления проблемы не происходит. Это лишь минимум, который мы рассматриваем". По его словам, в подобных ошибках может быть отчасти виновата растущая зависимость от систем искусственного интеллекта для модерации, если X их использует. По словам Ричардсона, системы искусственного интеллекта хорошо справляются с сортировкой больших массивов данных и выявлением потенциальных проблем, но в настоящее время системы неизбежно будут завышать или занижать модерацию, не имея в конце концов человеческого мнения. "Должна быть реальная реакция на инцидент, когда кто-то продает материалы о сексуальном насилии над детьми на вашем сервисе, верно? Мы стали совершенно десенсибилизированы к этому. Мы имеем дело с продажей изнасилованных детей", - сказал Ричардсон. «Вы не можете автоматизировать решение этой проблемы».