Южная Америка

Мистификации о дане в социальных сетях: от страха на X до отвращения на Tiktok

Мистификации о дане в социальных сетях: от страха на X до отвращения на Tiktok
Социальные сети взывают к эмоциям, особенно в условиях кризиса и больших доз дезинформации, как это было во время дана 29 октября, который привел к гибели 227 человек в провинции Валенсия. Согласно исследованию, проведенному учеными из Политехнического университета Валенсии (UPV), эти реакции различаются в зависимости от конкретной социальной сети. Эмоциональная парадигма не одинакова, поскольку каждая платформа активирует различные когнитивные и сенсорные процессы. Проанализировав сотни сообщений о дане на X и TikTok, исследователи пришли к выводу, что дезинформация на X в основном связана с большей печалью и страхом, а на TikTok - с большим гневом и отвращением, сообщается в пресс-релизе. «В X, где контент в основном текстовый, пользователи должны интерпретировать информацию, что способствует более интроспективной эмоциональной реакции, где повествования о трагедиях и негативных событиях развиваются в более неторопливой манере, вызывая чувства грусти и страха. В отличие от этого, TikTok, объединяя визуальные и слуховые элементы, предлагает мультисенсорный опыт, который вызывает немедленную и более интенсивную реакцию», - объясняют исследователи УПВ Паоло Россо и Иван Аркос, которые пришли к выводу, что реактивные и висцеральные эмоции, вызываемые TikTok, сосредоточены на гневе и отвращении. Таковы некоторые выводы, сделанные в исследовании «Расходящиеся эмоциональные паттерны в дезинформации в социальных сетях. Анализ твитов и тиктограмм о дане в Валенсии под руководством Ивана Аркоса, Паоло Россо и Рамона Салаверрии из Школы коммуникации Университета Наварры. Драматическая музыка, тональные вариации и визуальные эффекты китайской социальной сети выступают в роли катализаторов, вызывающих эти менее медитативные эмоции. Кроме того, аудитория TikTok, «привыкшая к динамичному и быстрому контенту, склонна обрабатывать информацию более мгновенно, что способствует эмоциональной поляризации по отношению к дезинформации», - заключают Россо и Аркос, работающие в исследовательском центре PRHLT. Исследование, разработанное в рамках Иберийской обсерватории цифровых медиа и опубликованное на конференции по искусственному интеллекту ICAART-2025, было проведено после анализа распространения дезинформации в этих двух социальных сетях во время дана в Валенсии 29 октября. Для этого были проанализированы эмоциональные и лингвистические модели 650 постов в X и TikTok. Отчет подтверждает вывод о том, что обращение к эмоциям является преднамеренной и часто повторяющейся стратегией в сообщениях, вводящих в заблуждение. Лингвистический анализ сообщений показывает, что достоверный контент использует более внятные формулировки, в то время как фальшивые сообщения используют отрицания, личные анекдоты или ссылки на членов семьи, чтобы узаконить свои утверждения с помощью прямых свидетельств и быть достоверными. В процессе анализа сообщений, размещенных в социальных сетях, ключевые слова, связанные с засухой, использовались для создания тысяч и тысяч реакций, основанных на таких мистификациях, как прятание сотен трупов на парковке торгового центра на Бонэйре (погибших не было обнаружено) или многочисленные ложные сведения об отказе в помощи или прорыве плотин. Среди наиболее часто используемых ключевых слов были «заговор», «сокрытие трупов», «обман», «манипуляции», «ложь», «кладбище на Бонэйре», «отказ в помощи» или «прорыв плотины». В аудиозаписях постов TikTok прослеживаются четкие закономерности: в заслуживающих доверия аудиозаписях используются более яркие тона и роботизированное или монотонное повествование, что создает ясность и достоверность, а в сообщениях, распространяющих дезинформацию, для изменения восприятия используются тональные вариации, эмоциональная глубина и музыкальные элементы. Столкнувшись с ростом дезинформации в социальных сетях, исследователи указывают на возможность использования искусственного интеллекта для помощи платформам и проверки контента, поскольку «они могли бы автоматически анализировать тысячи сообщений, выявлять характерные признаки дезинформации и уведомлять модераторов. Они также могли бы предупреждать пользователей о возможной сомнительной достоверности некоторых сообщений, что помогло бы смягчить распространение недостоверной информации», - говорится в заключении пресс-релиза.