Исследование указывает на риски, связанные с технологиями распознавания лиц

Улыбнитесь! Ваше лицо не только снимают на камеру, но и классифицируют, сравнивают и идентифицируют, причем в основном органы государственной безопасности и чаще всего без вашего ведома. Об этом свидетельствуют результаты исследования, проведенного Федеральной службой общественной защиты (DPU) в партнерстве с Центром исследований безопасности и гражданства (CESeC), академическим учреждением, связанным с Университетом Кандидо Мендеса в Рио-де-Жанейро. В докладе «Картирование биометрического наблюдения», опубликованном в среду (7), отмечается, что после проведения чемпионата мира по футболу в 2014 году Бразилия превратилась в обширное поле для цифрового наблюдения, где так называемые технологии распознавания лиц (FRT) нашли благодатную почву для распространения. Отчасти благодаря обещаниям облегчить идентификацию преступников и поиск пропавших людей. «Распознавание лиц широко внедряется государственными органами в Бразилии в процессе, который начался с проведением в стране мегасобытий - в частности, Чемпионата мира по футболу в 2014 году и Олимпийских игр в 2016 году», - утверждают авторы документа, ссылаясь на сложные и дорогие камеры распознавания лиц, которые все чаще появляются в городских пейзажах. По данным исследователей, в апреле этого года в Бразилии насчитывалось не менее 376 активных проектов по распознаванию лиц. В совокупности эти проекты способны контролировать почти 83 миллиона человек, что соответствует примерно 40 процентам населения Бразилии. И они уже принесли по меньшей мере 160 миллионов реалов государственных инвестиций - эта цифра рассчитана на основе информации, которую 23 из 27 федеральных единиц предоставили ответственным за исследование - Амазонас, Мараньян, Параиба и Сержипе не ответили на опрос, который проводился в период с июля по декабрь 2024 года. «Несмотря на все это, нормативные решения отстают», - утверждают исследователи из DPU и CESeC, гарантируя, что в Бразилии до сих пор нет законов, регулирующих использование цифровых систем наблюдения, в частности камер распознавания лиц. Кроме того, по мнению экспертов, не хватает механизмов внешнего контроля, единых технико-эксплуатационных стандартов и прозрачности при внедрении систем. Это повышает вероятность серьезных ошибок, нарушения неприкосновенности частной жизни, дискриминации и нецелевого использования государственных ресурсов. В другом исследовании CESeC приводит 24 случая, произошедших в период с 2019 по апрель 2025 года, в которых, как утверждается, были выявлены недостатки в системах распознавания лиц. Самый известный из них - дело 23-летнего тренера Жоана Антонио Триндаде Бастоса. В апреле 2024 года военная полиция вывела Бастоса с трибун стадиона «Луривал Батиста» в Аракажу (ЮВ) во время финального матча чемпионата Сержипано. Они завели молодого человека в комнату, где подвергли его грубому обыску. Только после того, как были проверены все документы Бастоса, и ему пришлось ответить на несколько вопросов, чтобы доказать, что он тот, за кого себя выдает, полиция выяснила, что система распознавания лиц, установленная на стадионе, приняла его за беглеца. Возмущенный, Бастос вышел в социальные сети, чтобы выразить недовольство несправедливостью, с которой он столкнулся. Последствия этого дела заставили правительство Сержипе приостановить использование этой технологии военной полицией, которая, по сообщениям новостей того времени, уже использовала ее для задержания более десяти человек. Бастос - чернокожий. Как и большинство людей, идентифицированных с помощью систем наблюдения и распознавания лиц, в Бразилии и других странах - согласно докладу DPU и CESeC, есть данные, что 70 процентов полицейских сил мира имеют доступ к тому или иному виду TRF и что 60 процентов стран имеют систему распознавания лиц в аэропортах. В Бразилии «более половины полицейских подходов, мотивированных распознаванием лиц, привели к ошибочной идентификации, что подчеркивает риск неправомерных арестов». «Опасения по поводу использования этих технологий не беспочвенны», - предупреждают эксперты, ссылаясь на международные исследования, согласно которым в некоторых случаях уровень ошибок систем «непропорционально высок для определенных групп населения, будучи в десять-сто раз выше для чернокожих, коренных жителей и азиатов по сравнению с белыми людьми». Этот вывод побудил Европейский парламент предупредить в 2021 году, что «технические неточности в системах искусственного интеллекта, предназначенных для удаленной биометрической идентификации физических лиц, могут привести к необъективным результатам и иметь дискриминационные последствия». Говоря об «институциональных и нормативных проблемах», исследователи отмечают, что в декабре 2024 года Сенат одобрил законопроект 2338 2023, направленный на регулирование использования искусственного интеллекта, включая биометрические системы, в сфере общественной безопасности. Чтобы стать законом, предложение должно быть одобрено Палатой депутатов, которая в прошлом месяце создала специальный комитет для обсуждения этого вопроса. Кроме того, по мнению исследователей DPU и CESeC, хотя законопроект предлагает запрет на использование систем удаленной биометрической идентификации в реальном времени в общественных местах, текст, одобренный Сенатом, предусматривает так много исключений, что на практике он функционирует «как широкое разрешение на внедрение» этих систем. «Категории разрешений [в одобренном тексте] включают уголовные расследования, преступления на месте преступления, поиски пропавших без вести и поимку беглецов - ситуации, которые охватывают значительный спектр деятельности по обеспечению общественной безопасности». Учитывая историю злоупотреблений и отсутствие эффективных механизмов контроля, такая открытость использования приводит к сохранению возможности состояния слежки и нарушения прав«. В заключение исследователи заявляют о необходимости проведения »квалифицированных общественных дебатов" при активном участии гражданского общества, представителей научных кругов, органов государственного контроля и международных организаций. Они также рекомендуют, по их мнению, «срочные меры», такие как принятие специального национального закона, регулирующего использование технологий; стандартизация протоколов с соблюдением надлежащей правовой процедуры и проведение независимых и регулярных проверок. Эксперты также отмечают, что государственные органы должны быть более прозрачными в отношении контрактов и используемых баз данных, гарантировать общественности доступ к четкой информации о системах распознавания лиц и обучать государственных служащих, которые занимаются этим вопросом. Они также предлагают требовать предварительного судебного разрешения на использование информации, полученной с помощью FRA, в расследованиях, а также ограничить срок хранения биометрических данных и усилить контроль над частными компаниями, которые эксплуатируют эти системы. «Мы надеемся, что эти выводы не только помогут в рассмотрении законопроекта 2338 в Палате депутатов, но и послужат предупреждением для регулирующих и контролирующих органов о необходимости быть внимательными к тому, что происходит в Бразилии». В докладе подчеркивается как расовая предвзятость в использовании технологий, так и проблемы нецелевого использования государственных ресурсов и отсутствия прозрачности в их применении", - говорится в заявлении Пабло Нунеса, генерального координатора CESeC.