Южная Америка Консультация о получении ПМЖ и Гражданства в Уругвае

Почему чат-боты с искусственным интеллектом не могут избавиться от гендерных стереотипов


Новости Аргентины

Почему чат-боты с искусственным интеллектом не могут избавиться от гендерных стереотипов

Когда исследователь дезинформации Вэнь-Пин Лю изучал попытки Китая повлиять на недавние выборы в Тайване с помощью поддельных аккаунтов в социальных сетях, он заметил нечто необычное в наиболее успешных профилях: "Это были женщины, или, по крайней мере, именно так они выглядели. Поддельные профили, выдававшие себя за женщин, получали больше пользователей, больше глаз и больше влияния, чем якобы мужские аккаунты". "Притвориться женщиной - самый простой способ добиться доверия", - говорит Лю, следователь из Министерства юстиции Тайваня. Будь то китайские или российские пропагандистские агентства, онлайн-мошенники или чат-боты с искусственным интеллектом, выгодно быть женщиной". Это доказывает, что, хотя технологии могут становиться все более изощренными, человеческий мозг по-прежнему удивительно легко взломать, отчасти благодаря вековым гендерным стереотипам, которые перекочевали из реального мира в виртуальный. "Люди давно приписывают человеческие характеристики, такие как пол, неодушевленным предметам (одним из примеров являются лодки), поэтому вполне логично, что человеческие черты делают поддельные профили в социальных сетях или чат-боты более привлекательными". Однако вопросы о том, как эти технологии могут отражать и укреплять гендерные стереотипы, привлекают внимание по мере того, как на рынке появляется все больше голосовых помощников и чат-ботов с искусственным интеллектом, еще больше размывающих грань между мужчиной (и женщиной) и машиной. "Вы хотите привнести немного эмоций и тепла, и очень простой способ сделать это - выбрать женское лицо и голос", - говорит Сильви Борау, профессор маркетинга и онлайн-исследователь из Тулузы (Франция), чья работа показала, что интернет-пользователи предпочитают ботов-женщин и считают их более человечными, чем "мужские" версии. Люди склонны видеть женщин более теплыми, менее угрожающими и приятными, чем мужчин, сказала Борау в интервью The Associated Press. В то же время мужчины часто воспринимаются как более компетентные, но и более склонные к угрозам и враждебности. Из-за этого многие люди могут сознательно или бессознательно охотнее взаимодействовать с фальшивым аккаунтом, выдающим себя за женский. "Когда генеральный директор OpenAI Сэм Альтман искал новый голос для программы искусственного интеллекта ChatGPT, он обратился к Скарлетт Йоханссон и сказал ей, что пользователи найдут ее голос, который исполнял роль одноименного голосового помощника в фильме "Она", "успокаивающим". "Йоханссон отклонила просьбу Альтмана и пригрозила подать в суд, когда компания приняла голос, который она назвала "жутко похожим". OpenAI приостановила разработку нового голоса. "Женские фотографии в профиле, особенно те, на которых изображены женщины с идеальной кожей, пышными губами и широкими глазами в откровенных нарядах, могут стать еще одной приманкой для многих мужчин". "Пользователи также по-разному относятся к ботам в зависимости от их предполагаемого пола: исследование Борау показало, что "женские" чат-боты гораздо чаще подвергаются сексуальным домогательствам и угрозам, чем "мужские". "Женские профили в социальных сетях получают в среднем в три раза больше посещений, чем мужские, согласно анализу более 40 000 профилей, проведенному для AP компанией Cyabra, израильской технологической компанией, специализирующейся на обнаружении ботов. Cyabra обнаружила, что больше всего просмотров получают женские профили, утверждающие, что они моложе. "Создание фальшивого аккаунта и представление его как женского поможет аккаунту получить больший охват по сравнению с представлением его как мужского", - говорится в отчете Cyabra. "Онлайн-кампании влияния, проводимые такими странами, как Китай и Россия, уже давно используют фальшивых женщин для распространения пропаганды и дезинформации. Эти кампании часто используют мнение людей о женщинах. Некоторые из них выглядят как мудрые и заботливые бабушки, передающие домашнюю мудрость, а другие имитируют молодых, условно привлекательных женщин, желающих поговорить о политике с пожилыми мужчинами. "В прошлом месяце исследователи из компании NewsGuard обнаружили, что сотни фальшивых аккаунтов, некоторые с фотографиями профиля, сгенерированными искусственным интеллектом, были использованы для критики президента Джо Байдена. Это произошло после того, как некоторые сторонники Трампа начали публиковать личные фотографии с сообщением о том, что они "не будут голосовать за Джо Байдена". "Хотя многие сообщения были подлинными, более 700 поступили с поддельных аккаунтов. Большинство профилей выдавали себя за молодых женщин, живущих в таких штатах, как Иллинойс или Флорида. Но многие аккаунты использовали практически идентичный язык и имели фотографии профиля, созданные искусственным интеллектом или украденные у других пользователей. И хотя они не могли с уверенностью сказать, кто управлял фальшивыми аккаунтами, они обнаружили десятки аккаунтов со ссылками на такие страны, как Россия и Китай. "X удалил эти аккаунты после того, как NewsGuard связался с платформой". "В докладе ООН говорится, что есть еще более очевидная причина, почему так много фальшивых аккаунтов и чат-ботов - женские: они были созданы мужчинами. В докладе под названием "Сексисты ли боты?" анализируется гендерное неравенство в технологических отраслях и делается вывод, что большее разнообразие в программировании и разработке ИИ может привести к уменьшению количества сексистских стереотипов в их продуктах. "Для программистов, стремящихся сделать своих чатботов как можно более человечными, это создает дилемму, говорит Борау: если они выбирают женскую личность, не способствуют ли они развитию сексистских взглядов на реальных женщин? "Это порочный круг", - говорит Борау. "Гуманизация ИИ может привести к дегуманизации женщин". Телеграм-канал "Новости Аргентины"