Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Психология обмана: как изображения, созданные искусственным интеллектом (ИИ), влияют на эмоции пользователей Facebook? Новое исследование, опубликованное в журнале Computers in Human Behavior, показало, что ИИ-продукты не просто заполняют социальные сети картинками, а искусно играют на чувствах людей, заставляя их реагировать, не задумываясь.
Поток искусственного контента в соцсетях обеспечивает т.н. «контент-фермы» — площадки, штампующие массу низкопробных постов ради кликов и рекламы. Венгерский исследователь Марк Мискольци (Corvinus University) решил разобраться, почему мы так легко попадаемся на крючок этих цифровых уловок. Если раньше учёные увлекались темой политических дипфейков и технических сбоев, то Мискольци сосредоточился на ежедневных «бесполезных» изображениях, которые цепляют аудиторию.
По словам автора, большинство публикаций сгенерированы, чтобы вызывать сильные эмоции, зачастую обходя критическое мышление пользователя. Особенно хорошо срабатывают сцены ностальгии («деревенька, поле, счастливая старость») и картинки с «несчастными детьми» — такие трюки используют психологические ловушки человеческого сознания и побуждают к живому отклику.
Главный вопрос не в том, насколько картинка правдоподобна технически — а в том, как она «легализуется» внутри социальной сети с помощью лайков и комментариев. Мискольци изучил 12 подозрительных пабликов в Facebook, среди которых преобладали темы заботы о старших, духовность, сельская романтика. Искусственность изображений подтверждали два этапа проверки: сначала — ручной анализ на типичные артефакты ИИ (лишние пальцы, странный фон, невозможные предметы), затем — онлайн-детектор ИИ, фиксирующий 60% и более вероятности синтетичности.
Итог — 146 подозрительных картинок и более 9 тысяч «живых» комментариев (ботов отсекали по характерным признакам — однообразные слова, подозрительная скорость, фейковые профили). Картинки делились на две основные категории: «Ностальгия» (например, пожилые пары, якобы прожившие вместе десятилетия) и «Эмпатия» (несчастные дети, просящие чашку кофе — да и вообще вымышленные страдальцы).
Пользователи активно сочувствовали, молились и давали советы героям картинок, не понимая, что они просто реагируют на компьютерное творчество.
Почему это работает? Благодаря когнитивным искажениям — «коротким путям» мышления. Подтверждающее искажение заставляет принимать за чистую монету всё, что совпадает с вашими взглядами (например, сказки о счастливом прошлом или мрачной безысходности), а так называемое «эмоциональное якорение» заставляет не замечать явные сбои генератора, если эмоция уже сработала.
Эффект узнаваемости снижает настороженность: если картинка кажется знакомой по стилю и сюжету, человек отключает сомнения. Чем больше людей проявили отклик, тем сильнее эффект «стадного чувства» — пользователи видят тысячи комментариев и автоматически включаются в процесс.
Особое внимание Мискольци уделил роли «ботов» — фальшивые аккаунты искусственно раздувают обсуждение, подогревая массовый отклик. И люди, сами того не замечая, выдают сочувствие компьютерным фантомам. Это яркое проявление т.н. «теории мёртвого интернета» — когда большая часть сетевой активности генерируется не людьми, а машинами, создавая иллюзию реального общения.
ИИ делает старую схему манипуляций глобальной по масштабу: с помощью «контент-ферм» нужные эмоции можно вызывать массово и эффективно. Со временем люди начинают сомневаться не только в дипфейках, но и в реальных историях, теряя доверие к интернету вообще.
Главная рекомендация исследователя — не просто «сомневаться», а выработать привычки ручной проверки. Для этого он предлагает чек-листы: восьмишаговый ESMA для выявления «артефактов» (руки, текст, фон, свет), и десятишаговый TSMA для выявления признаков ботов в комментариях.
Мискольци подчеркивает: никто не защищён — ни образованные, ни молодые, ни «прошаренные» пользователи. Всё зависит от ситуации и эмоционального настроя. Задача платформ — сделать среду менее благоприятной для массовых манипуляций, а пользователей — учиться «цифровому иммунитету».
Театр Facebook, где ИИ вытирает ваши слёзы роботизированной тряпочкой, наконец получает своего драматурга. Мискольци, вооружённый утомлённым скепсисом и несколькими чек-листами, разоблачает схемы современных виртуальных шарлатанов.
Сентиментальные картинки с парочками в поле и несчастными детьми? Не ваши тётушки, а результат работы контент-фермы, одержимо гонящейся за вашими эмоциями и рекламным бюджетом. На страже деструктивной искренности — армия ботов: те старательно подогревают вовлечённость, чтобы простому человеку захотелось лайкнуть, проникнуться и вписаться в хоровод одобрения.
Заметили — боты умеют не только привлекать внимание, но и разносить социальную «чуму» массового самообмана. Главное — никакого интеллектуального снобизма: под прицелом как пенсионеры из Костромы, так и специалисты по информационной безопасности. Коллективизм тут работает лучше любых аргументов разума.
Ритуал «внимательного скроллинга» теперь требует инструментов: ищите несовершенные детали, смотрите на комментаторов — вдруг это вся цифровая братва инфлюенсеров-батов? Пока массовое недоверие не выросло в хроническую паранойю, стоит выработать «цифровой иммунитет» и не ждать, что за вас всё решат платформы или разработчики. Сам себе фильтр. Или нет — глупость коллективного лайка всегда сильнее здравого смысла.