Система распознавания лиц присутствует во всех штатах Бразилии
По данным исследования Panoptico, проведенного Центром изучения безопасности и гражданства (CESeC), в Бразилии насчитывается не менее 195 проектов, использующих распознавание лиц для обеспечения общественной безопасности. По словам координатора центра Пабло Нунеса, подобные инициативы были выявлены во всех штатах Бразилии. В период с 2019 по 2022 год в ходе исследования было выявлено 509 случаев использования подобных технологий людьми, находящимися в тюрьмах. Однако Нунес отмечает, что "количество арестов с использованием этой технологии гораздо выше, чем мы можем отслеживать". Данные, собранные группой в 2019 году, показывают, что из 184 выявленных в том году арестов более 90% пришлось на чернокожих. "Мы наблюдаем углубление профиля тех, кто попадает в тюрьму с помощью системы распознавания лиц, причем основное внимание уделяется молодым чернокожим мужчинам, заключенным в тюрьму за ненасильственные преступления, в основном по закону о наркотиках, который стал отличным инструментом для увеличения численности заключенных", - говорит Нунес. Распределение проектов по распознаванию лиц по стране не отвечает, по мнению Нунеса, никакой логике статистики преступности или концентрации населения. Согласно результатам исследования, наибольшее число проектов приходится на штат Гояс (45 инициатив), за ним следуют штаты Амазонас (21 проект), Парана (14) и Сан-Паулу (12). В столице Сан-Паулу в августе был подписан контракт Smart Sampa, предусматривающий установку к концу 2024 года 20 000 камер наблюдения, запрограммированных на распознавание лиц. О рисках ошибочной идентификации говорится в докладе "Больше камер - больше безопасности?", подготовленном Институтом Игарапе в 2020 г. и анализирующем опыт использования камер с искусственным интеллектом в Сальвадоре (BA), Кампинасе (SP) и Рио-де-Жанейро. По данным исследования, проблема может возникнуть, если программирование не основано на разнообразной базе данных лиц. В другом исследовании, опубликованном в 2018 году, ученые Джой Буоламвини из Массачусетского технологического института (MIT) и Тимнит Гебру, работавший в то время в Microsoft, обнаружили, что при попытке идентифицировать темнокожих женщин технологии распознавания лиц допускают ошибку в 34,7%. Среди светлокожих мужчин этот показатель, по данным исследования, составил 0,8%. По мнению координатора исследовательского центра, то, как подобная технология внедряется в Бразилии, свидетельствует о рисках системной расовой дискриминации в отношении менее социально защищенных слоев населения, особенно чернокожих. "Понимание того, как эти алгоритмы распознавания лиц используются в системе общественной безопасности Бразилии, проливает свет на опасности и возможности нарушений, которые могут возникнуть при использовании этих технологий для уголовного преследования", - подчеркивает он. Кроме того, по мнению исследовательского центра, имеет место инверсия приоритетов в использовании государственных ресурсов, которые, будучи ограниченными, в итоге оказываются недостаточными в других областях, что опять-таки сказывается на качестве жизни наименее благополучных слоев населения. "Эти деньги, которые могли бы быть использованы для внедрения базовых санитарных норм в городах, где их нет, были потрачены на камеры распознавания лиц - дорогую, предвзятую и расистскую технологию", - анализирует он. По мнению Тарсизио Сильвы, исследователя из Mozilla Foundation, использование биометрических данных для криминализации чернокожего населения и отвлечение ресурсов, которые могли бы улучшить условия жизни этих групп населения, на подобные проекты являются проявлениями явления, называемого алгоритмическим расизмом. Среди других ущербов, наносимых расистской предвзятостью технологий, Сильва выделяет, например, распространение дезинформации, основанной на контенте, автоматически генерируемом искусственным интеллектом. "Алгоритмические системы, к сожалению, могут углублять дезинформацию, негативные представления, как политические, так и фактические искажения о мире", - говорит исследователь, который участвует в проекте по выявлению ущерба от предвзятого использования технологий.