Южная Америка

Исследование показало, что чат-боты с искусственным интеллектом использовали неточную информацию для изменения политических взглядов людей

Исследование показало, что чат-боты с искусственным интеллектом использовали неточную информацию для изменения политических взглядов людей
Согласно исследованию, опубликованному в четверг, чат-боты с искусственным интеллектом очень хорошо умеют менять политические взгляды людей и особенно убедительны, когда используют неточную информацию. Исследователи использовали краудсорсинговый веб-сайт, чтобы найти почти 77 000 человек для участия в исследовании, и заплатили им за взаимодействие с различными чат-ботами с искусственным интеллектом, в том числе с некоторыми, использующими модели искусственного интеллекта от OpenAI, Meta и xAI. Исследователи спрашивали мнение людей по различным политическим темам, таким как налоги и иммиграция, а затем, независимо от того, был ли участник консерватором или либералом, чат-бот пытался изменить его мнение на противоположное. Исследователи обнаружили, что чат-боты с искусственным интеллектом не только часто достигали успеха, но и что некоторые стратегии убеждения работали лучше, чем другие. «Наши результаты демонстрируют замечательную убедительную силу систем искусственного интеллекта для общения по политическим вопросам», — сказал в заявлении об исследовании его ведущий автор Коби Хакенбург, докторант Оксфордского университета. Исследование является частью растущего числа исследований о том, как искусственный интеллект может повлиять на политику и демократию, и оно проводится в то время, когда политики, иностранные правительства и другие пытаются понять, как они могут применять искусственный интеллект для влияния на общественное мнение. В статье, опубликованной в журнале Science, было обнаружено, что чат-боты с ИИ были наиболее убедительными, когда предоставляли участникам исследования большие объемы подробной информации, а не когда использовали альтернативные тактики ведения дискуссии, такие как апелляции к морали или аргументы, персонализированные для конкретного человека. По мнению исследователей, это означает, что чат-боты с ИИ могут «превзойти по убедительности даже элитных человеческих ораторов, учитывая их уникальную способность почти мгновенно генерировать большие объемы информации во время разговора», пишут исследователи, хотя они и не сравнивали чат-ботов с ИИ с человеческими ораторами. Однако в исследовании также отмечается, что убедительность чат-ботов с ИИ не всегда была на высоте: в огромном количестве информации, предоставленной чат-ботами в качестве ответов, исследователи обнаружили много неточных утверждений. «Наиболее убедительные модели и стратегии побуждения, как правило, генерировали наименее точную информацию», — пишут исследователи. Они добавили, что наблюдали «тревожное снижение точности убедительных утверждений, генерируемых самыми последними и крупнейшими передовыми моделями». Утверждения, сделанные GPT-4.5 — моделью, выпущенной OpenAI в феврале, — в среднем были значительно менее точными, чем утверждения более мелких, старых моделей, также разработанных OpenAI, пишут они. «В совокупности эти результаты свидетельствуют о том, что оптимизация убедительности может происходить за счет правдивости, что может иметь негативные последствия для публичного дискурса и информационной экосистемы», — пишут они. OpenAI не ответила на запрос о комментарии в четверг. Исследование было проведено до того, как OpenAI выпустила свою последнюю модель GPT-5.1 в прошлом месяце. Около 19% всех утверждений чат-ботов ИИ в исследовании были оценены как «преимущественно неточные», пишут исследователи. В статье содержится предупреждение, что в крайнем случае высокоубедительный чат-бот ИИ «может принести пользу недобросовестным субъектам, желающим, например, продвигать радикальные политические или религиозные идеологии или разжигать политические беспорядки среди геополитических противников». Статья была подготовлена группой специалистов из британского Института безопасности искусственного интеллекта, исследовательской организации, поддерживаемой правительством Великобритании, а также из Оксфордского университета, Лондонской школы экономики, Стэнфордского университета и Массачусетского технологического института. Они получили финансирование от Министерства науки, инноваций и технологий правительства Великобритании. Хелен Маргеттс, профессор Оксфордского университета по вопросам общества и интернета и соавтор исследования, заявила, что это исследование было частью усилий «по пониманию реальных последствий LLM для демократических процессов», имея в виду большие языковые модели, или технологию, лежащую в основе популярных генеративных систем искусственного интеллекта, таких как ChatGPT и Google Gemini. Участники исследования были взрослыми жителями Великобритании, которым задавали вопросы, связанные с британской политикой. Исследование проводится в то время, когда ИИ меняет политику с разных сторон. Президент Дональд Трамп регулярно публикует в социальных сетях видео и изображения, созданные с помощью ИИ, некоторые политические кампании рассылают сгенерированные ИИ электронные письма с просьбой о сборе средств или видео с использованием технологии deepfake, а государственные агенты из Китая и России используют ИИ в своих пропагандистских кампаниях. В то же время использование чат-ботов с ИИ быстро растет. Около 44 % опрошенных взрослых в США заявили, что «иногда» или «очень часто» используют инструменты ИИ, такие как ChatGPT, Google Gemini или Microsoft Copilot, согласно опросу NBC News Decision Desk Poll, проведенному SurveyMonkey и опубликованному в июне. Исследование показало, что в диалогах с чат-ботами есть что-то особенно убедительное. Исследователи сравнили участников исследования, которые взаимодействовали с чат-ботом на базе ИИ, с участниками, которым просто предложили прочитать убедительное сообщение из 200 слов, написанное ИИ. Они обнаружили, что чат-бот на базе ИИ был значительно более убедительным, чем статическое сообщение — на 41–52 % более убедительным, в зависимости от модели ИИ. Исследование показало, что изменение политических взглядов было устойчивым: через месяц убедительный эффект по-прежнему был очевиден у 36–42 % участников. Исследователи также изучили, какие типы чат-ботов с ИИ являются наиболее эффективными, протестировав 17 различных крупных языковых моделей, включая самые сложные и более простые. Они также протестировали модели с различными уровнями тонкой настройки, известные в индустрии ИИ как «пост-обучение». Исследователи признали, что контролируемые условия их исследования не сразу переносятся на повседневную политическую практику, где в большинстве кампаний чат-боты не используются в качестве инструмента убеждения. «Остается неясным, в какой степени люди будут добровольно поддерживать когнитивно сложные политические дискуссии с системами искусственного интеллекта вне контекста опросов», — написали они. Но некоторые эксперты, не участвовавшие в исследовании, заявили, что оно является важным шагом. «Теперь у нас есть доказательства того, что по мере совершенствования моделей они становятся более убедительными», — сказала Шелби Гроссман, профессор факультета журналистики Аризонского государственного университета, которая изучала убедительность контента ИИ. Она сказала, что вполне возможно, что иностранные правительства могут попытаться использовать убедительность контента ИИ, в том числе для посева раздора в социальных сетях, но она также сказала, что есть и законные способы использования, если политические деятели прозрачно сообщают о своем использовании ИИ. Дэвид Брукман, доцент кафедры политологии Калифорнийского университета в Беркли, который изучает влияние убеждения в избирательных кампаниях, сказал, что, хотя исследование показало, что чат-боты с ИИ обладают убедительной силой, он был уверен, что этот эффект не был значительным. «В мире существуют апокалиптические сценарии, согласно которым ИИ будет гипнотизировать или «промывать мозги» людям, потому что он гораздо более убедителен, чем человек», — сказал он. Он сказал, что исследование опровергает эти апокалиптические идеи и вместо этого предполагает, что люди считают убедительными большие объемы подробной информации, предоставляемой по запросу — что, по его словам, является положительным знаком для человечества. В реальной ситуации «если обе стороны вопроса используют это, я полагаю, что это нейтрализует друг друга, и вы услышите более убедительные аргументы с обеих сторон», — сказал он. Исследование, опубликованное в четверг, — не первое, в котором предпринимается попытка измерить убедительность ИИ. В другой статье, опубликованной в мае на основе исследования меньшей группы участников, было обнаружено, что чат-боты с ИИ не особенно убедительны, в то время как в статье, опубликованной в прошлом году, было обнаружено, что люди, работающие с генеративным ИИ, могут создавать убедительную пропаганду с ограниченными усилиями.