Как алгоритмы и искусственный интеллект воспроизводят, а иногда и усиливают исторические неравенства?
На протяжении десятилетий искусственный интеллект (ИИ) представлялся как нейтральная технология, основанная на данных и математике. Однако зачастую эти системы питаются данными, полными стереотипов, которые отражают и усугубляют гендерные предвзятости. Дело в том, что ИИ не только отражает мир, но и его неравенство. В результате этого искажения женщины оказываются в проигрышном положении. «Существуют гендерные предубеждения. Например, Linkedin никогда не предложит мне вакансию на руководящей или управленческой должности. Почему? Потому что алгоритм всегда питался тенденцией, согласно которой эти должности занимают мужчины. В условиях этого алгоритма быть женщиной уже лишает меня возможностей, а быть латиноамериканкой — еще больше», — заявила Вероника Агреда, ректор Университета Франца Тамайо (Unifranz). Алгоритмы — это далеко не абстрактная проблема, они принимают решения, которые имеют реальные последствия: кто получит кредит, чье резюме попадет на собеседование, кого будет контролировать система распознавания лиц, или какие голоса услышат миллионы людей, когда они запросят информацию у своих цифровых помощников. Истоки предвзятости Алгоритмы и системы искусственного интеллекта, как и модели машинного обучения, разработаны для выполнения задач быстрее, чем люди, практически автоматически. Для этого они питаются данными, которые позволяют им обучаться определенным процессам. Когда эти модели питаются предвзятыми алгоритмами, они усугубляют существующее неравенство и способствуют гендерной дискриминации в ИИ. Зинния дель Вильяр, эксперт по ответственному ИИ, заявила в беседе с ООН-Женщины, что «часто системы ИИ питаются данными, полными стереотипов». Она пояснила, что эти предубеждения могут ограничивать возможности и разнообразие, особенно в таких областях, как принятие решений, найм на работу, предоставление кредитов и судебные решения. Например, если мы обучаем ИИ принимать решения о найме на работу с помощью примеров, которые соответствуют гендерным стереотипам — например, что мужчины занимаются STEM-науками, а женщины — уходом за детьми, — ИИ будет генерировать фильтры, которые не будут учитывать женщин для должностей, связанных с наукой. Эта ситуация называется гендерным смещением в ИИ, то есть когда ИИ относится к людям по-разному в зависимости от их пола, потому что это то, чему он научился из смещенных данных, которыми он был накормлен. Наиболее незаметные для ИИ В 2018 году исследовательница Джой Буоламвини вместе с Тимнит Гебру опубликовала «Gender Shades», анализ того, как три основные системы распознавания лиц, классифицированные крупными технологическими компаниями, гораздо чаще ошибались с женщинами с темной кожей, чем с мужчинами со светлой кожей. Результаты показали ошибки до 34,7 % при классификации лиц чернокожих женщин. Напротив, в случае белых мужчин погрешность составляла всего от 0 % до 0,7 %. Пересекающийся разрыв составил более 34 процентных пунктов. Национальный институт стандартов и технологий США (NIST) в 2019 году подтвердил, что различия в производительности между демографическими группами являются реальными и широко распространенными. Массовая оценка 189 алгоритмов выявила значительные различия по полу, возрасту и этнической принадлежности. Хотя многие алгоритмы с тех пор были усовершенствованы, NIST предупреждает, что демографическая предвзятость по-прежнему представляет собой серьезный риск, особенно в «высокоэффективных» приложениях, таких как наблюдение или пограничный контроль. Другой известный пример — случай 2018 года, когда расследование показало, что Amazon тайно отказалась от внутренней системы отбора резюме, потому что она автоматически отбрасывала женщин. Модель, обученная на десятилетней истории трудовых отношений, в которой преобладали мужчины, научилась считать мужские профили «лучшими». Компания настаивала, что система не использовалась в реальных процессах, но этот случай стал глобальным предупреждением. Голосовые помощники, шепчущие стереотипы Другой сценарий, в котором ИИ усиливает гендерное неравенство, буквально находится в гостиных миллионов домов. В 2019 году ЮНЕСКО опубликовала отчет «I’d Blush If I Could» («Я бы покраснела, если бы могла»), в котором критикуется почти автоматическая феминизация виртуальных помощников, таких как Siri, Alexa или Cortana. В выводах отчета отмечается, что большинство этих систем изначально были разработаны с женскими голосами по умолчанию. Эти голоса обычно реагировали на оскорбления или агрессивные комментарии покорным или извиняющимся тоном, что укрепляет представление о том, что женщины «служат», «помогают» или «покорны приказам». Для ЮНЕСКО эта проблема не является незначительной, поскольку она нормализует вредные стереотипы в технологии, которой ежедневно пользуются дети, подростки и взрослые. Согласно данным Всемирного экономического форума, только 22% специалистов в области искусственного интеллекта — женщины, а это означает, что технические решения принимаются малодиверсифицированными командами. Проблема заключается в том, кто обучает алгоритм. Эксперты сходятся во мнении, что алгоритмический уклон является симптомом более широких неравенств, поскольку проблема возникает из-за информации, с помощью которой он обучается. Если женщины недопредставлены в каком-либо секторе, алгоритм «недооценивает» их. Кроме того, однородные команды, как правило, не видят «слепых пятен», которые затрагивают другие группы, что приводит к созданию технологий, разработанных без учета разнообразия. «Если мы не начнем исправлять эти предвзятости в алгоритмах и не будем питать их данными, отражающими равенство, мы создадим еще большие разрывы. Алгоритмы должны быть разработаны с учетом гендерного равенства, наших мировоззрений и коренных народов. Это должно рассматриваться как задача всех, как задача коллективного интеллекта», — заявила Агреда. Международные организации рекомендуют принять срочные меры, такие как обязательные алгоритмические аудиты перед использованием ИИ в принятии важных решений, разнообразное представительство в командах разработчиков, модельные карты и «технические паспорта», документирующие риски и ограничения, регулирование, обязывающее к прозрачности и оценке воздействия, обучение женщин и девочек в области STEM, чтобы увеличить их участие в разработке ИИ. Искусственный интеллект не является по своей сути дискриминационным. Но без вмешательства он усилит предвзятость обществ, в которых он зародился. «Алгоритмы — это увеличительные зеркала», — говорят эксперты. И если отражение мира неравномерно, ИИ может сделать его нормой.
