Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование показало, что онлайн‑сообщества, которые ненавидят мужчин, ничем принципиально не отличаются от тех, что ненавидят женщин. Итальянская исследовательница Эрика Кополилло изучила четыре токсичные группы Reddit и пришла к выводу: дело не в поле жертвы, а в ядовитой среде, где любая ненависть прекрасно чувствует себя. Это опубликовано в журнале Scientific Reports.
Соцсети давно стали местом, где люди строят свои мини‑миры. Часто это превращается в «эхо‑камеры» – закрытые уголки, где пользователи слышат только то, что хотят. Анонимность подталкивает их к созданию таких микроколоний, где оскорбления и стереотипы становятся языком общения.
До сих пор изучали в основном женоненавистничество – о нём накоплены сотни тысяч исследований. А вот мужчиноненавистничество всерьёз начали изучать лишь после 2014 года. Кополилло решила сравнить оба явления системно, чтобы понять, действительно ли они различаются.
Она выбрала четыре сообщества Reddit: два мужчиноненавистнических (обычное феминистское и радикальное, позже заблокированное) и два женоненавистнических (форум «прав мужчин» и сообщество невольных целибатников — «инцелы», также заблокированное). Анализировались посты 2016–2022 годов. В выборку включали только сообщения, где прямо упоминались «мужчина», «мужчины», «муж», «женщина», «женщины», «жена».
Лингвистический анализ показал: словари всех четырёх групп удивительно похожи. Резких различий между теми, кто ненавидит мужчин, и теми, кто ненавидит женщин, нет.
Оценка токсичности с помощью искусственного интеллекта выявила схожие паттерны: много безобидного контента и отдельные всплески сильной агрессии. Женоненавистнические группы были немного токсичнее, но в целом картина почти одинакова.
Анализ эмоций подтвердил то же: чаще всего выражалась ненависть, затем злость. «Инцелы» чуть чаще выражали печаль, радикальные феминистки — страх. Но в целом различия были небольшими. Интересно, что при оценке не отдельных сообщений, а совокупной активности каждого пользователя, именно мейнстрим‑феминистское сообщество показало самый высокий уровень ненависти.
Даже структура сетей общения не зависела от направления агрессии: феминистское сообщество оказалось похожим по организации на группу «прав мужчин», а «инцелы» — на радикальных феминисток.
Вывод прост: ненависть в интернете развивается по одним и тем же законам, независимо от того, на кого она направлена. Модерация должна учитывать это и одинаково серьёзно относиться и к женоненавистникам, и к мужчиноненавистницам.
Исследование признаёт ограничения: данные Reddit могут содержать ошибки, а искусственный интеллект не всегда точно понимает сарказм. Кроме того, результаты не обязательно применимы к другим платформам. В будущем учёные хотят изучать влияние ботов и скрытых радикальных групп.
Исследование Reddit снова напомнило, как легко люди превращают интернет в арену борьбы — и как мало значения имеет то, ради чего эта борьба декларируется.
Четыре сообщества, четыре направления агрессии — а в итоге один и тот же набор проблем. Лексика повторяется, эмоции дублируются, структура общения не меняется. Смена адресата ненависти ничего не меняет в её природе. Она просто ищет новое место для размножения.
Любопытно, как идеи, заявленные как противоположные, приходят к одинаковым практикам. Феминистские и антифеминистские группы вдруг оказываются зеркалами друг друга — только отражение у всех кривое. Декларации разные, поведение одно и то же.
Отдельная история — индивидуальные пользователи. Стоит сложить всю их активность, и привычные представления ломаются: больше всего злости — в мейнстрим‑феминистском сообществе. Радикальные последователи идут следом. А тем временем те, кто называет себя «борцами за права мужчин», оказываются всего лишь ещё одной вариацией на тему агрессивного интернет‑солдата.
Структура общения только подчёркивает абсурд ситуации. Сообщества, которые должны быть идеологически противоположными, выглядят как близнецы. Взаимные связи, подгруппы, сетевые модули — всё совпадает. Ненависть не создаёт уникальную форму, она воспроизводит одну и ту же модель.
Работа показывает — модерация, которая делает вид, что одни виды токсичности опаснее других, просто не справляется. Ненависть симметрична. Она не различает, кого ей выбирать объектом. И если платформы продолжают смотреть на проблему однобоко, они лишь помогают ей укореняться.
Исследование напоминает о хрупкости цифровой среды. Алгоритмы ошибаются, данные шумят, но направление ясно: только равное отношение ко всем формам агрессии позволит хотя бы частично обезвредить этот бесконечный поток злобы.