«Вы похожи на...»: алгоритм оценивает вашу политическую ориентацию с 72-процентной точностью

Ваше лицо может рассказать о ваших политических предпочтениях. Это предложение звучит очень похоже на «Черное зеркало»: футуристическое и антиутопическое, с намеком на Ломброзо. Но, в отличие от этого сериала, это не концепция, придуманная продюсером или сценаристом, а научный отчет. На самом деле, данные получены в результате исследования, проведенного под руководством Михала Косински, профессора Стэнфордского университета. «Наша работа показывает, что распознавание лиц может предсказать политическую ориентацию по фотографиям без выражения, сделанным в паспортном стиле, без волос на лице, украшений или макияжа. Это не просто самопрезентация", - пояснил он в недавней теме на X. „В докладе делается вывод, что алгоритмы распознавания лиц могут предсказывать политическую ориентацию людей с точностью, которая, мягко говоря, отрезвляет: 72-процентный показатель точности“. Исследование, опубликованное в журнале Scientific Reports, поднимает вопросы о последствиях для частной жизни и этичности использования этой технологии. «Для проведения исследования, опубликованного в Scientific Reports, было проанализировано более миллиона изображений из социальных сетей (таких как Facebook и приложения для знакомств). Эти фотографии были проанализированы широко используемым алгоритмом распознавания лиц, и оказалось, что система может правильно предсказать заявленную человеком политическую идеологию в 72 % случаев. Исследование было независимо подтверждено другой группой датских ученых, которые пришли к аналогичным выводам: «Этот уровень точности значительно превосходит 55% точности, полученной человеческими наблюдателями, и 66% точности 100-пунктового личностного опросника. Не менее важно, что точность в 72 % сохранялась даже при контроле таких переменных, как возраст, пол и этническая принадлежность, и была одинаковой в таких странах, как США, Канада и Великобритания". Исследование вызвало вопросы и опасения по поводу конфиденциальности и потенциального использования технологии не по назначению. Косински подчеркнул, что не разрабатывал алгоритм для предсказания интимных черт, и заявил о необходимости строгого регулирования перед коммерческим или правительственным применением. «Алгоритмы могут классифицировать людей по интимным признакам более точно, чем люди, что создает значительные риски для частной жизни и гражданских свобод, - сказал он в интервью сайту Стэнфордской школы бизнеса. Эта технология может быть использована для слежки и политической дискриминации». Возможность предсказать политическую ориентацию человека по его изображению создает риск злоупотреблений, особенно в авторитарных условиях". »Идея о том, что черты лица могут раскрывать столь интимную информацию, возрождает дебаты, схожие с теми, что велись по поводу френологии и физиогномики, хотя и подкрепленные передовыми технологиями. Именно поэтому Косински подчеркивает, что его исследование призвано предупредить о рисках, а не способствовать развитию подобных инструментов без соответствующей нормативной базы". »Некоторые критики утверждают, что результаты могут быть необъективными из-за использованных данных и базовых демографических характеристик. Однородность учебных данных может ограничить обобщаемость результатов на более разнообразные группы населения». В исследовании ясно говорится о необходимости обсуждения и регулирования использования искусственного интеллекта для распознавания лиц: «Развитие этой технологии ставит проблемы с точки зрения конфиденциальности и этики. Поэтому в отчете подчеркивается необходимость разработки соответствующего регулирования и проведения общественных дебатов об ответственном использовании искусственного интеллекта. По мере того как эти технологии все больше интегрируются в нашу повседневную жизнь, важно найти баланс между потенциальными преимуществами и защитой индивидуальных прав». Если не принять соответствующих мер, мы можем столкнуться с тем, что в будущем наша частная жизнь и автономия окажутся под серьезной угрозой».