Южная Америка

Дэниел Хауден, наблюдатель за искусственным интеллектом: "Эти системы уже затрагивают права человека и гражданские права".

Дэниел Хауден, наблюдатель за искусственным интеллектом: "Эти системы уже затрагивают права человека и гражданские права".
Британский журналист Дэниел Хауден (50 лет, Уэймут), эксперт по коррупции и миграции, на протяжении большей части своей карьеры работал корреспондентом крупнейших британских СМИ. Три года назад, на пике бума искусственного интеллекта (ИИ), он основал Lighthouse Reports, платформу для расследования того, как центральные и местные органы власти по всему миру используют алгоритмы для принятия решений, и призвал их к ответу. Платформа, сотрудничающая с газетами, подкастами и вещательными компаниями, сотрудничает с более чем 120 СМИ, публикуя свои отчеты, созданные совместно с журналистами из соответствующих альянсов. Стратегия Howden заключается в том, чтобы привлекать специалистов без спешки в редакции и использовать преимущества витрины СМИ и уже устоявшихся отношений с общественностью. В год они проводят около 20 расследований в разных уголках земного шара. О своих выводах он рассказывает в интервью, которое он дал в Сантьяго, принимая участие в проекте "Этические алгоритмы" в Университете Адольфо Ибаньеса при поддержке лаборатории инноваций Межамериканского банка развития (Bid Lab). Вопрос. Почему вы решили сосредоточиться на вопросах подотчетности при использовании алгоритмов? Ответ. Автоматизированные системы принятия решений, которые внедряются по всему миру, например, в сфере уголовного правосудия, здравоохранения или социального обеспечения, были внедрены без широких консультаций с общественностью или вообще без нее. За нами наблюдают, нас ранжируют и оценивают системы, которые большинство из нас не понимает. Для обычного человека это означает, что в отношении его жизни принимаются решения, которые он не может контролировать, будь то заявка на ипотеку, работа или государственное пособие. Если они не могут понять, как их заявление было принято или отклонено, это означает, что они не прошли через надлежащую процедуру и не могут оспорить решение или узнать, какие данные, о которых они, возможно, не знали, были собраны. Большинство этих систем искусственного интеллекта внедряются правительствами, городами и государственными учреждениями без надзора. Именно поэтому журналистам приходится входить в это неудобное пространство, чтобы делать репортажи и отстаивать необходимость регулирования. В. С чем вы столкнулись, когда основали Lighthouse? О. Меня расстроило то, что журналисты технологической отрасли всегда говорили об искусственном интеллекте как о чем-то непонятном, что произойдет в ближайшем будущем: "Это случится". Но они игнорировали тот факт, что уже сейчас есть вещи, о которых можно рассказать, которые присутствуют в нашей жизни. Если вы живете в самой бедной части мира, вполне возможно, что международная поддержка программ помощи основана на алгоритме, разработанном Всемирным банком, который рассчитывает уровень бедности по довольно спорной методике. P. В каких случаях используется эта автоматизированная система принятия решений? О. Например, при вынесении приговоров в рамках уголовного правосудия в США и некоторых странах Европы в той или иной степени. Эти системы дают оценку риска, которая затем используется судьями для вынесения приговоров и определения срока заключения. Тюремные власти используют их, чтобы решить, кто должен отправиться в тюрьму строгого режима или кто получит условно-досрочное освобождение. В. Какую информацию они используют при вынесении приговора? О. Это взаимодействие переменных. Простые, такие как возраст, пол, классификация преступлений, но также этническая принадлежность, размер семьи, последний известный адрес, финансовые записи... Есть факторы, которые невозможно учесть. Мы также подробно рассмотрим системы выявления мошенничества со стороны граждан в государствах всеобщего благосостояния. Один из вопросов заключается в том, как вы решаете, кто будет подвергнут расследованию на предмет возможного мошенничества? В Нидерландах была разработана система, которая учитывала 315 переменных, из которых более 20 касались языка. Что они пытались определить? Кто является коренным жителем, а кто нет, и на основании этого определить степень риска. Нельзя сказать, что человек с большей вероятностью совершит мошенничество, потому что он иммигрант. В. Являются ли предубеждения систем искусственного интеллекта зеркальным отражением предубеждений общества? R. Технологические компании, продающие эти системы, утверждают, что они принимают объективные решения, что исключает фактор человеческой предвзятости, но это зависит от того, как их обучают. Если набор обучающих данных является отражением многолетних предвзятых действий, то эта предвзятость будет отражена. Один из примеров, который был исследован, - предиктивная работа полиции. Система сообщает полиции, что необходимо сконцентрировать ресурсы в том или ином районе, потому что в этом месте сконцентрированы исторические данные о преступлениях. В теории это звучит хорошо. Риск заключается в том, что на протяжении многих лет полиция была нацелена на поиск определенных видов преступлений и в определенных районах. Например, в Сан-Паулу система прогнозирования на основе местоположения рекомендует полиции сосредоточиться на бедных кварталах, где живут те, кто работает в богатых кварталах. По статистике, жители богатых кварталов чаще покупают запрещенные наркотики, но они совершают сделки в бедных кварталах, поэтому система никогда не посоветует полиции отправиться в богатый район. Вот так и возникает предвзятость. В. Что же делать? О. С одной стороны, этичные сторонники ИИ утверждают, что мы можем сделать лучшую работу по созданию и обучению этих систем. Другие считают, что эти инструменты не подходят для решения некоторых деликатных задач, особенно связанных с наиболее уязвимыми слоями населения. Но мы все еще находимся на стадии выявления действительно плохих систем и создания стимулов для государственных органов, чтобы они лучше понимали технологию и работали над созданием более подготовленных систем. Мы пропускаем тот этап, когда заставляем их работать этично, когда они несут ответственность за ошибки и их результаты могут быть оспорены. В. Влияет ли искусственный интеллект на права человека? О. Государственные органы используют ИИ в правительствах, городах и национальных системах, что негативно сказывается на правах человека. В качестве примера можно привести систему выявления потенциального мошенничества в программах социальных пособий или вопрос о том, останется ли человек в тюрьме, но системы искусственного интеллекта также все чаще используются для принятия решений о том, кто проходит собеседование при приеме на работу или насколько он подходит для получения кредита. Мы не можем сказать, что регулирование ИИ невозможно осуществить достаточно быстро, поэтому мы опускаем руки. Мы не можем сказать, что он умнее нас, и не будем пытаться оценить предвзятость систем, которые будут принимать самые простые решения, влияющие на наши гражданские права. В. Как нам избежать такого отношения? О. Немного отойти от шумихи, что ИИ - это очень интересно и очень страшно. Не надо говорить так, будто это нечто неизбежное, что просто лишит нас возможности принимать решения о том, каким будет наше общество, оставив все полномочия в руках нескольких технологических компаний. Это хорошо для них, но не для тех, кто рассчитывает быть гражданином, а не просто потребителем товара. Нужно думать так же, как мы делали с регулированием лекарств: средний политик не в состоянии пройти тесты на новейшие препараты, это должны проверять и регулировать государственные учреждения. В этой области мы решили, что в интересах общества должны быть такие гарантии. В. Похоже ли происходящее на то, что происходит с социальными сетями? О. Вокруг искусственного интеллекта много шумихи. Нам говорят, что он либо все исправит, либо всех нас убьет - две невероятно головокружительные идеи, но они говорят о будущем. Гораздо меньше обсуждается то, что мы можем сделать сейчас, чтобы справиться с системами, которые уже присутствуют в нашей жизни. Есть правила, касающиеся всех других систем, которые влияют на нас, но есть и идея, что ИИ - это нечто исключительное. Мы уже слышали эти аргументы от крупных технологических компаний, таких как Amazon или Airbnb. Нам говорили, что их нельзя регулировать, как любую другую розничную торговлю или гостиничный бизнес. В то время как Airbnb, например, оказала огромное влияние на стоимость аренды жилья. Эти компании не должны быть доминирующим голосом в разговоре. Нашим правительствам полезно подумать о том, как создать гибкое, устойчивое к будущему законодательство, учитывающее имеющиеся у нас гражданские права и права человека. Мы не должны жертвовать гражданскими правами и правами человека в погоне за удивительным будущим для ИИ. В. Какова позиция индустрии ИИ? О. Она хочет легкого регулирования, на которое она имеет большое влияние. Правительства могут играть роль в двух направлениях: установить нормативное игровое поле, что имеет смысл для отрасли, поскольку означает, что все игроки должны разрабатывать и внедрять технологии одинаково, или установить стандарты для систем, которые будут принимать решения, влияющие на государственный сектор, быть прозрачными в отношении них и требовать от поставщиков технологий предоставлять доступ третьим сторонам, таким как СМИ, инспекторы и аудиторы.