Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование, опубликованное в Journal of Experimental Psychology: General, раскрывает любопытный и тревожный нюанс влияния алгоритмов персонализации, используемых на онлайн-платформах с контентом. Эти алгоритмы, подстраиваясь под поведение пользователя, могут не только создавать искажённое понимание темы, но и развивать ложную уверенность в неточных знаниях.
Исследование было проведено учёными из Университета Вандербильта и Университета штата Огайо — Giwon Bahg, Владимиром М. Слоутски и Brandon M. Turner. Ранее персонализация ассоциировалась с "фильтровыми пузырями", которые усиливают существующие убеждения, например, в политических или социальных вопросах.
Однако новый проект проверял, влияет ли персонализация на базовые когнитивные процессы людей, которые пытаются изучать новую тему, о которой им ничего не известно. Ученые поставили цель проверить, мешает ли персонализация формировать полную и адекватную картину действительности.
Эксперимент включал 343 участника, из которых данные 200 были использованы в финальном анализе. Испытуемым предложили освоить классификацию вымышленных «кристаллоподобных пришельцев», обладающих шестью визуальными характеристиками: положение на линии, радиус круга, яркость, ориентация, кривизна и пространственная частота.
В процессе обучения участники нажимали на скрытые серыми блоками признаки пришельцев — так учёные отслеживали, какую информацию выбирают и какую игнорируют. Были сформированы группы: контрольная — с рандомным набором признаков, группа свободного выбора для изучения и группы с персонализацией, моделировавшей алгоритмы видео платформ вроде YouTube.
Алгоритм, подражающий рекомендательным системам, отслеживал, на какие признаки кликает пользователь, и подсовывал похожие варианты, тем самым создавая порочный круг. Это отражает реальную ситуацию, когда платформы предпочитают удерживать внимание пользователя, пусть и жертвуя полнотой представленной информации.
Результаты показали, что участники, обучавшиеся с персонализацией, исследовали значительно меньше разнообразия признаков и сузили своё внимание по мере прогресса. Метрика энтропии Шеннона подтвердила ограниченность их информационного поля.
При тестировании на классификацию новых пришельцев они допускали больше ошибок и строили искажённые модели категорий из-за узкого суждения. Более того, несмотря на ошибки, эти участники часто были чрезмерно уверены в своих знаниях, в том числе по элементам, которых изначально не видели.
Вывод: алгоритмы создают иллюзию компетентности, скрывая большую часть картины. Пользователи ошибочно принимают выбранный им урезанный набор данных за всю информацию, недооценивая собственное незнание.
Авторы отмечают, что их эксперимент был искусственно упрощён, чтобы исключить влияние предвзятости, и предлагают исследовать, как эти эффекты проявятся в более сложных реальных сценариях, включая новости и образовательные инструменты.
Исследование поднимает важный вопрос: в погоне за вовлечением современные алгоритмы жертвуют точностью восприятия мира, влияя на то, как люди формируют свои знания и делают выводы. Это не просто про то, что мы видим в ленте — это про то, как мы думаем.
Статья "Algorithmic Personalization of Information Can Cause Inaccurate Generalization and Overconfidence" доступна с авторами Giwon Bahg, Vladimir M. Sloutsky и Brandon M. Turner.
Новое исследование из Journal of Experimental Psychology: General преподносит тревожный урок: алгоритмы персонализации, которые так любят платформы вроде YouTube, не просто подстраивают контент под нас — они избирательно ограничивают информационное пространство, искажают представление о мире и, что хуже, заставляют нас чувствовать себя куда умнее, чем на самом деле. Ученые из Университета Вандербильта и Университета штата Огайо под руководством Giwon Bahg, Vladimir M. Sloutsky и Brandon M. Turner поставили эксперимент: участникам предложили научиться распознавать вымышленных «кристаллоподобных пришельцев» с шестью визуальными признаками.
Часть участников проходила обучение с помощью персонализационного алгоритма, имитирующего рекомендации видео платформ — алгоритм предлагал им контент, похожий на уже изученный, тем самым ограничивая разнообразие представленной информации.
Результат? Пользователи, обучавшиеся с персонализацией, смотрели на мир слишком узко, допускали больше ошибок при классификации новых примеров и при этом испытывали завышенную уверенность в своих знаниях.
Учёные отмечают, что эксперимент был искусственным и контролируемым, чтобы исключить влияние прежних убеждений, но результаты поднимают важный вопрос: насколько интернет-алгоритмы формируют не только наш информационный фон, но и сами когнитивные процессы?
Это своего рода призыв задуматься о том, как технологии влияют на наше мышление и почему верить всему, что падает в нашу ленту, стоит с осторожностью. Ведь, как показывает опыт, иногда за яркими рекомендациями скрывается узколобая вселенная незнания.
Результаты опубликованы в статье "Algorithmic Personalization of Information Can Cause Inaccurate Generalization and Overconfidence" авторами Giwon Bahg, Vladimir M. Sloutsky и Brandon M. Turner.