Следите за новостями по этой теме!
Подписаться на «Поп музыка / Зарубежные новости»
Исследование показывает, что распространение ложной информации в интернете повышает видимость республиканских законодателей.
Что происходит, когда политики публикуют ложные или токсичные сообщения в интернете? Наша команда нашла доказательства того, что законодатели штатов США могут повысить или понизить свою общественную видимость, делясь непроверенными данными или используя некорректные высказывания в периоды высокой политической напряженности. Это поднимает вопросы о том, как социальные сети формируют общественное мнение и, намеренно или нет, вознаграждают определенные поведения.
Я - специалист в области вычислительной социальной науки, и моя команда разрабатывает инструменты для изучения политической коммуникации в социальных сетях. В нашем последнем исследовании мы изучили, какие типы сообщений выделяют законодателей штатов США в сети в 2020 и 2021 годах - в трудное время, отмеченное пандемией, выборами 2020 года и беспорядками 6 января в Капитолии. Мы сосредоточились на двух типах вредного контента: информации с низкой надежностью и некорректном языке, таком как оскорбления или крайние утверждения. Мы измерили их влияние на основе того, насколько широко посты были оценены, поделены или прокомментированы на Facebook и X (бывший Twitter).
Наше исследование показало, что этот вредный контент связан с повышенной видимостью авторов. Однако эффект варьируется. Например, республиканские законодатели, которые публиковали информацию с низкой надежностью, излучали большее онлайн-внимание, чего не наблюдалось среди демократов. В противовес этому публикация некорректного контента, как правило, снижала видимость, особенно для законодателей с крайними идеологиями.
Социальные сети, такие как Facebook и X, стали одной из основных площадок для политических дебатов и убеждения. Политики используют их для связи с избирателями, продвижения своих программ, мобилизации сторонников и нападения на соперников. Но некоторым из их публикаций уделяется значительно больше внимания, чем другим.
Предыдущие исследования показали, что ложная информация распространяется быстрее и охватывает более широкие аудитории, чем фактический контент. Алгоритмы платформ часто продвигают контент, вызывающий гнев или эмоции, выше в лентах. В то же время некорректный язык может углублять разделения и вызывать недоверие к демократическим процессам.
Когда платформы вознаграждают вредный контент повышенной видимостью, у политиков возникает стимул публиковать такие сообщения, поскольку повышенная видимость может напрямую привести к большему вниманию со стороны СМИ и потенциальной поддержке избирателей. Наши результаты вызывают опасения, что алгоритмы платформ могут непреднамеренно вознаграждать делящее или вводящее в заблуждение поведение.
Когда вредный контент становится выигрышной стратегией для политиков, чтобы выделиться, это может искажать общественные дебаты, углублять поляризацию и затруднять избирателям поиск надежной информации.
Мы собрали почти 4 миллиона твитов и полмиллиона публикаций на Facebook от более чем 6500 законодателей штатов США в 2020 и 2021 годах. Мы использовали технологии машинного обучения, чтобы определить причинно-следственные связи между контентом и видимостью.
Эти технологии позволили нам сравнить посты, которые были схожи почти во всех аспектах, кроме того, что один содержал вредный контент, а другой – нет. Измеряя разницу в том, насколько широко были замечены или поделены эти посты, мы могли оценить, насколько видимость была получена или потеряна исключительно из-за этого вредного контента.
Большинство исследований вредного контента фокусировались на национальных фигурах или влиятельных лицах в соцсетях. Наше исследование вместо этого рассматривало законодателей штатов, которые существенно формируют законы на уровне штатов по таким вопросам, как образование, здравоохранение и общественная безопасность, но обычно получают меньше внимания со стороны СМИ и проверок фактов.
Законодатели штатов часто избегают широкой проверки, что создает возможности для распространения дезинформации и токсичного контента. Это делает их онлайн-активность особенно важной для понимания.
Мы планируем проводить дальнейшие анализы, чтобы определить, сохраняются ли модели, которые мы обнаружили в напряженные годы 2020 и 2021, со временем. Продолжат ли платформы и аудитории вознаграждать информацию с низкой надежностью, или этот эффект временный?
Мы также хотим выяснить, как изменения в политике модерации, такие как переход X к меньшему надзору или прекращение проверки фактов на Facebook, влияют на то, что видят и что делят. Наконец, мы стремимся лучше понять, как люди реагируют на вредные посты: они ставят лайки, делятся ими в гневе или стараются их исправить?
Основываясь на наших текущих выводах, эта линия исследований может помочь в формировании более умного дизайна платформ, более эффективных усилий по цифровой грамотности и более серьезных защит для здоровой политической беседы.
Вот у нас новое исследование о том, как республиканские законодатели во время высоких политических ставок становятся настоящими виртуозами в искусстве лжи. Стало очевидно, что публикация токсичного контента — это золотая формула для достижения массовой видимости — прямо как добросердечные акушеры ускакали к роддому, как только узнали о новой фишке на выборах.
Исследование обнажает, что непринятые факты и ненадежные данные действуют как магниты для внимания. Особенно, если автором является республиканец, который, похоже, со штурмом берет социальные сети. Демократы, видимо, предпочитают старые добрые способы — мирно собираться за круглым столом, обсуждая необходимость соблюдения истинных данных. Но оставим наивность на потом — во время шторма все хотят ловить рыбу.
Алгоритмы социальных платформ, безусловно, лебезят перед контентом, вызывающим гнев. Это как старый анекдот о том, как ресторан повышает цены на стейк, когда вокруг толпятся хищники. Политики — не исключение! Они прекрасно понимают: чем больше страстей, тем больше зрителей. Скорее всего, их пиарщики теперь пишут посты типа "как бы не так…", просто чтобы протестировать все грани морали и приличия.
Кажется, что платформы всячески поощряют делящую информацию — это как давать кому-то «50 зелёных», чтобы подсказать о «легком обмане» у карты. В результате даже серьезные проблемы, касающиеся образования и здравоохранения, подменяются шутками, которые вызывают меньше стыда, чем смех за чаем. Так, у нас получается, что общественные дебаты все больше похожи на рынок — кто громче закричит, тот и прав.
Научная команда, изучившая четыре миллиона твитов и полмиллиона постов с помощью машинного обучения, показывает своим «исследовательским метам-алгоритмом», что, оказывается, у нас есть прямая связь между токсичным контентом и видимостью. Пока законодатели на экране стоят, их послания становятся поводами для комедийных шоу и мемов. Общественный интерес повышается, когда речь идет о скандалах, а не о реальных изменениях в законодательстве.
А теперь внимание — пока эти законодатели прячутся от незаслуженной проверки, дезинформация может царствовать бесконечно долго. Если бы продолжали наблюдать за тем, как пользователей награждают иллюзией «свободы слова», возможно, вскоре мы увидим Бэтмена в роли модератора контента в соцсетях. Кажется, единственная модерация, которая нужна, — это замена 'недостоверной информации' на 'плюс пять к виральности'.
Так что добро пожаловать в эпоху, когда текст в Twitter стал главным орудием манипуляции, а общественные дебаты превратились в своеобразное клоунское представление. Как эта странная цирковая труппа доедет до выбора 2024 года — большой вопрос.