Регулирование искусственного интеллекта в Европейском Союзе, помимо ChatGPT
Интерес к последним разработкам в области искусственного интеллекта, таким как использование ChatGPT или автоматизация определенных процессов, растет день ото дня. Чтобы дать вам ответ, Европа готовит Регламент об искусственном интеллекте, который вот-вот выкристаллизуется. Европейская комиссия опубликовала проект Регламента об искусственном интеллекте, или «Закона об IA» (AIA, его аббревиатура на английском языке) в апреле 2021 года. После долгих месяцев анализа, как только Парламент ЕС ратифицирует свою позицию на пленарном заседании в июне, Совет, Парламент и Комиссия смогут обсудить с Комиссией окончательный текст. Хотя в ходе переговоров в Регламент еще могут быть внесены изменения, ожидается, что он будет окончательно утвержден к концу года. С целью позиционирования Европы как мирового центра передового опыта в области ИИ, использующего ее потенциал для научного и промышленного прогресса, новый регламент направлен на усиление правил разработки и использования этой технологии в рамках уважения ценностей и законодательством Европейского Союза. Зная, что этот регламент может устареть из-за технологического развития, Комиссия регулировала применение ИИ в конкретных случаях использования, а не в самой технологии. Поэтому оценивается риск, который может представлять использование технологий для основных прав, здоровья и безопасности человека, и системы ИИ классифицируются по четырем уровням риска: неприемлемый, высокий, ограниченный и минимальный. УРОВНИ РИСКА Имеют неприемлемый риск, а их производство и использование запрещены законодательством, системы ИИ с высокой вероятностью причинения физического или психологического вреда людям. Это относится к приложениям, которые подсознательно манипулируют, классифицируют в социальном плане или без разбора наблюдают за гражданами. Среди этих систем есть те, которые используются для удаленной биометрической идентификации людей в общественных местах в режиме реального времени в целях полиции, и системы социального кредита, которые оценивают граждан и могут ограничивать их доступ к государственным услугам, что является типом дискриминации, уже запрещенным в Союзе. Общее положение о защите данных (RGPD), являющееся частью Закона Уругвая № 18 331 о защите персональных данных. Со своей стороны, категорию высокого риска составляют системы ИИ, которые при плохой реализации могут оказать существенное влияние на основные права, здоровье и безопасность человека. Эти системы не запрещены в ЕС, но они должны соответствовать нескольким дополнительным требованиям, таким как оценка соответствия, применение систем управления рисками, практика управления данными, подготовка технической документации, ведение учета, прозрачность и предоставление информации пользователям. В приложении III регламента подробно описаны восемь областей применения, таких как управление критически важными инфраструктурами или миграционный контроль, а также доступ к образованию или рабочим местам, среди прочего. Например, использование ИИ для управления персоналом в компании, от найма до увольнения, прохождения задач, возможно в ЕС, если гарантируется прозрачность, недискриминация и другие требования. Наконец, существуют системы с ограниченным риском и системы с минимальным риском. Первые — это те, которые взаимодействуют с людьми через автоматизированного агента, например, чат-боты, которые распознают эмоции, биометрически классифицируют людей или манипулируют аудиовизуальным контентом. Эти системы необходимы для информирования граждан о своей работе. Для систем, относящихся к категории минимального риска, ни Комиссия, ни Совет не предъявляют дополнительных требований, но Парламент предлагает установить некоторые общие принципы, которыми следует руководствоваться при их разработке. Кроме того, в последние недели, учитывая появление таких инструментов, как ChatGPT, Европейский парламент предложил ввести некоторые конкретные требования к технологии, на которой основан этот инструмент, к базовым моделям. Эти требования будут применимы к любой такой системе, независимо от того, применяется она к варианту использования с высоким риском или нет. Несомненно, это будет одним из наиболее актуальных вопросов при согласовании окончательного текста, поскольку это противоречит первоначальной цели, заключающейся в том, что стандарт не регулирует конкретные технологии и, если требования трудно удовлетворить разработчикам этого типа технологии, это может помешать развитию и использованию этой технологии с большим потенциалом в Европейском Союзе. В настоящее время требования к управлению, установленные парламентом, могут помешать внедрению этой технологии в Европейском Союзе. ПРОБЕЛЫ В AIA Сама категоризация регулирования подвергается критике за ее произвол. Апарна Вишванатан, индийский юрист в области технологий, отмечает, что «критерии для каждой категории риска не дают никаких правовых оснований для определения категории системы ИИ». Апарна утверждает, что рекомендательные системы, используемые в социальных сетях и аудиовизуальных платформах, предлагают пользователям разный контент в зависимости от их пола, возраста, этнической принадлежности или личности, по этой причине «они должны войти в категорию неприемлемого риска из-за документально подтвержденного риска, который они создали». как для демократии, так и для психического здоровья подростков. Юрист практиковал в США и приводит в качестве примера использование Facebook для влияния на американские выборы 2020 года или использование Twitter для провоцирования беспорядков в Капитолии в 2021 году. «Юридическая доктрина «намерения», в частности, формулировка «предназначена для использования» разработчиком системы ИИ, являющаяся ключом к определению того, является ли система ИИ «высокорисковой», на первый взгляд неосуществима». Отсутствие точности в некоторых требованиях регламента также порождает путаницу. Например, чтобы система не работала предвзято, непрозрачно или несправедливо, установлено, что данные должны быть полными и не содержать ошибок. «Это невозможно, потому что данные компании, как правило, представляют не все население, а скорее ее клиентов», — объясняет Хесус Лозано, старший менеджер по цифровому регулированию в BBVA. «Другое дело, что компания должна гарантировать, что используемые ею данные не повлияют на качество модели, которую она собирается разработать. Другими словами, логично требовать, чтобы данные, используемые в системе, были высокого качества, но практически невозможно, чтобы они представляли всю совокупность или не содержали ошибок». Неоднозначность также влияет на методы, которые могут быть идентифицированы как системы ИИ, даже если они таковыми не являются. Это случай линейных регрессий, обычно используемых при предоставлении банковских кредитов, которые в предложении Комиссии, но не в позициях Европейского совета и парламента, можно было бы считать ИИ высокого риска. В любом случае регламент предусматривает, что именно национальный надзорный орган интерпретирует стандарт и оценивает уровень соответствия критериям. Для координации и гармонизации надзорных практик создается совещательный орган — Европейский совет по ИИ, но его решения не имеют обязательной силы. Нарушение правила влечет за собой штрафы в размере до 30 миллионов евро или 6% от глобального дохода компании, которая не соблюдает правила, а также штрафы, если регулирующим органам будут представлены ложные или вводящие в заблуждение документы. Принимая во внимание, что некоторые случаи, предусмотренные регламентом, также подпадают под действие GDPR, остается уточнить, будут ли добавлены санкции за несоблюдение AIA к предусмотренным в GDPR. «Если требования не очень конкретны, а санкции высоки, риск несоблюдения возрастает, и его последствия выше», — резюмирует Хесус Лосано. ПОТЕНЦИАЛ ОИП Несмотря на свои ограничения, проект ОИП представляет собой первый систематический и гармонизированный подход к искусственному интеллекту с юридической точки зрения. Ведущие страны в этой технологии, такие как Китай, Япония и Канада, имеют национальные планы и стратегии в этом отношении, включая независимые консультативные комитеты в случае последних двух. Но ни у кого нет такого амбициозного регулирования, как у AIA. То же самое и в США, где нет конкретного федерального закона, но есть соответствующие правила, такие как Калифорнийский закон о конфиденциальности потребителей (CCPA). По словам Вишванатана, «пробелы в AIA связаны с тем, что он был задуман с точки зрения правовой доктрины ответственности за качество продукции. Вместо этого ИИ — это не продукт, а система, у которой есть свой жизненный цикл». Юрист хотел бы, чтобы регулирующие органы тщательно проанализировали все аспекты жизненного цикла ИИ в сотрудничестве с техническими экспертами, чтобы разработать правила, которые предотвращают ущерб до его возникновения, вместо того, чтобы пытаться оценить уровень ущерба после того, как он произошел. система была коммерциализирована. В этом смысле Вирджиния Михес Мартин, эксперт в области цифровой экспансии и профессор бизнес-школы EAE, считает, что решение заключается в постоянном обновлении нормативного акта, который «предлагает общую нормативную базу, хотя реальность требует ускорения пересмотра каждый год. или каждые два года, чтобы быть в состоянии идти в ногу с крейсерской скоростью, которую взяли технологии».