Южная Америка

«Скрытая непрозрачность»: почему министр Албании, созданный с помощью ИИ, тоже может быть коррумпированным

«Скрытая непрозрачность»: почему министр Албании, созданный с помощью ИИ, тоже может быть коррумпированным
Несколько дней назад небольшая страна на юго-востоке Европы попала в новости из-за необычного события: в прошлый четверг премьер-министр Эди Рама объявил о назначении министра, созданного с помощью искусственного интеллекта. И то, что обещало инновации, вскоре вызвало дискуссии по поводу полезности и объективности этого инструмента. «Да, новая чиновница, получившая имя Диелла (что означает «солнце» на албанском языке), физически не существует. Однако она будет отвечать за все решения по тендерам на государственные закупки, чтобы гарантировать их «100% свободу от коррупции» и «абсолютную прозрачность» всех государственных средств, подпадающих под эту процедуру, согласно информации, распространенной AP. Об этом сообщил сам министр, объявляя о составе своего четвертого подряд правительства. По мнению опрошенных экспертов, Албания сталкивается со структурными проблемами коррупции в сфере государственных закупок, связями между политиками и бизнесменами и низким уровнем доверия к институтам. Рама занимает пост премьер-министра более 10 лет и стремится к вступлению страны в Европейский союз, который предъявляет высокие требования в области борьбы с коррупцией. Этот инструмент будет тщательно анализировать каждый тендер, в котором правительство привлекает частные компании, и «объективно оценивать достоинства каждого из них», как сообщает The Guardian. «В принципе, идея привлекательна: полностью объективный и неподкупный орган, принимающий решения на основе информации из тендерных предложений. Однако на практике этот идеал не выдерживает критики», — отмечает Хорхе Вилас Диас Кордеро, директор Обсерватории искусственного интеллекта Школы государственного управления Университета Аустрал. «Опрошенные эксперты сходятся во мнении, что для понимания того, может ли этот инструмент улучшить процессы прозрачности, важно задаться вопросом, кто и как обучил этот искусственный интеллект. Однако одним из самых спорных моментов в этой новости является то, что не было четко и публично сообщено, на основе каких данных был обучен Diella, какими критериями принятия решений он руководствуется и какими механизмами внешнего контроля он контролируется. «Непрозрачность процессов государственных закупок может сохраняться, потому что, возможно, ее обучили отдавать предпочтение одной конкретной компании и исключать другую; все это ситуации, о которых невозможно узнать, если в этом процессе нет прозрачности», — объясняет Гастон Перес Альфаро, профессор UCEMA. «Другими словами, любой искусственный интеллект создается, обучается и настраивается людьми, имеющими свои ценности, приоритеты и мировоззрение. «Опасность заключается в том, что люди верят в беспристрастность алгоритмов, тогда как на самом деле они отражают — а порой и усиливают — предвзятость тех, кто их создает. Не существует асептического ИИ, он не может быть объективным или нейтральным, он всегда имеет свой мировоззрение; объективность обеспечивается не машинами, а плюрализмом, аудитом и гражданским контролем», — добавляет Вилас Диас Кордеро. Мариана Олиер, юрист, специализирующаяся на международном праве и искусственном интеллекте, согласна с этим и отмечает: «Если система питается исторической информацией, содержащей предубеждения, существует риск, что они будут увековечены или даже усилены моделью». Другой важный момент, на который обращают внимание эксперты, заключается в том, что искусственный интеллект не способен понимать контекст. «Если ИИ обучается на локальных данных, например, на моделях найма, он может выявлять несоответствия или аномалии, характерные для этой среды. «Он может помочь распознать контекстуальные закономерности, но не понимает контекст так, как человек», — объясняет Антонелла Стрингини, юрист, специалист в области государственного управления и искусственного интеллекта, академический директор проектов по искусственному интеллекту UBATEC. Эксперты сходятся во мнении, что лучшим решением является сочетание двух подходов: повышение эффективности процессов и экономия времени с помощью искусственного интеллекта, поскольку иногда ресурсы ограничены, но с учетом человеческого фактора как важнейшего элемента уравнения и прозрачности данных, которые были использованы для его обучения. «Хорошо, когда человек проверяет, подтверждает и добавляет другие переменные, которые искусственный интеллект не может включить, потому что они связаны с человеческим фактором. Но то, что искусственный интеллект ускоряет процесс тендера, не означает, что он свободен от коррупции», — отмечает Lourdes Puente, политолог, доктор международных отношений и директор Школы политики и государственного управления УКА. В то же время она объясняет, что, поскольку неизвестно, как был обучен этот инструмент, неизвестно, не содержит ли он других предубеждений. «Все, что к нему добавляется, несет в себе опасность включения предубеждений. И не следует забывать, что сами нормы имеют политические предубеждения тех, кто их создает», — добавляет Пуэнте. Вилас Диас Кордеро согласен с Пуэнте и объясняет, что цифровизация может способствовать прозрачности процессов, но без глубоких реформ и активной гражданской позиции, сопровождаемой человеческим суждением, технология сама по себе рискует стать «косметической или маркетинговой». «ИИ может быть полезным инструментом для выявления нарушений в больших объемах данных, но сам по себе он не может искоренить коррупцию. Он даже может стать технократической фасадой, имитирующей контроль, прикрывая новые формы непрозрачности», — добавляет он. Стрингини предлагает, чтобы для обеспечения прозрачности проводились аудиты кода, моделей, обучающих данных и критериев принятия решений. Он также призывает к тому, чтобы данные, используемые для обучения Diella, были задокументированы, были общедоступными или, по крайней мере, доступными для контролирующих органов, и чтобы решения, принимаемые системой, подлежали контролю со стороны человека». Хотя ИИ может помочь оптимизировать процессы и повысить эффективность, он не является волшебным решением: он требует прозрачности, аудита и постоянного контроля со стороны человека, чтобы избежать новых рисков», — соглашается Олиер и добавляет: «Чтобы система вызывала доверие, правительство должно гарантировать открытость используемых наборов данных, разрешить аудиты и обеспечить постоянный контроль со стороны человека. В противном случае возникнет риск переноса коррупции в алгоритм, что не решит основную проблему и создаст новые источники непрозрачности». Кроме того, специалист ставит на повестку дня новую дилемму: возникают сомнения относительно того, кто несет ответственность за принимаемые решения. Другими словами, она объясняет, что ИИ не имеет юридического статуса, поэтому остается открытым вопрос о том, кто несет ответственность за любое решение, которое приводит к несправедливому результату или ущемляет права граждан».