Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование, опубликованное в журнале Nature, разобрало популярную иллюзию о нейтральности соцсетей. Учёные выяснили: как только пользователи X (бывший Twitter) включают алгоритмическую ленту, их политические взгляды смещаются вправо — и даже отключение алгоритма потом уже ничего не исправляет. След алгоритмического вмешательства остаётся надолго, как въевшийся запах после неудачного ремонта.
Платформа X предлагает два варианта потребления контента. Первый — хронологическая лента, где всё идёт по порядку от тех, на кого подписан пользователь. Второй — алгоритмическая, которая решает за пользователя, что ему «важно» увидеть. Она вытаскивает посты от незнакомых людей, выделяет самые шумные и активно вовлекающие темы, подсовывает контент так, чтобы человек задержался как можно дольше.
Исследователи решили проверить, меняет ли эта «индивидуальная подача» взгляды людей. Ранее похожие эксперименты на других платформах показывали, что отключение алгоритма никак не влияло на политические взгляды. Учёные предположили, что дело в том, что первоначальное воздействие алгоритма уже успевает что-то изменить в поведении человека.
В исследовании приняли участие 4 965 активных пользователей X из США. В течение семи недель летом 2023 года они использовали либо алгоритмическую, либо хронологическую ленту. В начале и в конце эксперимента они заполнили опросы об отношении к политике и текущим событиям — расследованиям против Дональда Трампа, войне в Украине, а также своим предпочтениям по ключевым политическим вопросам.
Тех, кто смотрел алгоритмическую ленту, затянуло глубже: они ставили больше лайков, комментировали, репостили — вовлечённость выросла значительно. Но главное — изменились их взгляды. Пользователи стали больше поддерживать республиканские приоритеты: ужесточение миграционной политики, опасения по поводу инфляции. Они критичнее относились к расследованиям против Трампа и занимали более пророссийскую позицию по войне в Украине.
Исследователи выяснили, как именно алгоритм это делает: он усиливает консервативный контент и посты активистов правого толка, одновременно «топя» материалы традиционных медиа. Новостные публикации попадали в ленту заметно реже.
Самое удивительное — когда пользователи после эксперимента возвращались к обычной хронологической ленте, их взгляды не возвращались назад. Почему? Во время алгоритмической подачи они успели подписаться на новых консервативных активистов. И потом, даже без алгоритма, их лента оставалась насыщенной этим контентом.
Учёные подытожили: ленты соцсетей формируют информационную среду человека куда сильнее, чем кажется. Это не просто зеркало, отражающее подписки. Это система, которая активно меняет их — и следы её воздействия остаются даже после отключения.
Исследование финансировалось Швейцарским национальным научным фондом и проводилось полностью независимо от компании X. Авторы: Germain Gauthier, Roland Hodler, Philine Widmer и Ekaterina Zhuravskaya.
Соцсети давно уверяют, что просто показывают людям то, что им нравится. Исследование Nature — редкий случай, когда это обещание проверили экспериментом. Учёные взяли почти пять тысяч пользователей X, разделили их на тех, кто сидит на хронологической ленте, и тех, кто смотрит только алгоритм. И у второй группы взгляды задвинуло вправо. Ненавязчиво, постепенно, через контент, который алгоритм считал «заслуживающим внимания».
Самое любопытное — эффект односторонний. Лента, которая годами кормит людей политизированными постами, создаёт привычку. Люди подписываются на тех, кого им показывают. Потом можно выключить алгоритм, но подписки остаются — и поток идей продолжается. Мягкая политическая дрессировка.
Ни X, ни его владельцы к исследованию отношения не имели. Финансирование — государственное, механизм — независимый. И выводы тоже. Алгоритмы — часть политического процесса. Они меняют взгляды — не всегда сильно, но стабильно. И сделать вид, что это просто нейтральная технология, уже не получится.