Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Вечером 14 декабря на знаменитом пляже Бонди-Бич в Австралии толпа собралась отпраздновать первую ночь Хануки, но праздник обернулся трагедией: двое вооружённых открыли огонь по собравшимся. На сегодняшний день сообщается о 15 погибших. Одного из нападавших обезвредил смелый очевидец Ахмед Аль Ахмед: он бросился на стрелка, вырвал у него оружие, и видео его героизма моментально разлетелось по соцсетям. На кадрах видно, как человек в белой рубашке буквально спасает десятки жизней, отбирая автомат у мужчины в чёрном.
Но у искусственного интеллекта Grok, того самого чат-бота от компании xAI Илона Маска, на это своя — параллельная — реальность. Утром после трагедии пользователи X (бывший Twitter) начали спрашивать у Grok, что происходит на видео. Ответ бота поразил даже бывалых скептиков: по версии Grok, на записи "старое вирусное видео, где мужчина залезает на пальму на парковке, возможно, чтобы обрезать ветки". В другой раз Grok заявил, что это нападение ХАМАС от 7 октября, а ещё через пару ответов связал всё с тропическим циклоном Альфред. Каждый раз настоящую трагедию заменяла чья-то абсурдная фантазия.
Чтобы хоть как-то вернуть бота к реальности, пользователи X (соцсетей) массово добавили к его ответам опровержения, но руководство платформы не спешит объяснять, почему Grok так феерично промахивается. И это не первая осечка — боты, вроде Grok, любят выдавать самые странные версии именно по горячим новостям: после убийства ультраправого комментатора Чарли Кирка, этот же ИИ усиленно разносил теории заговора, а графическое видео с гибелью Кирка просто назвал "мемом". Другие сервисы — даже Google AI Overview — тоже не отстают, успевая выдать фейк раньше, чем журналисты поднимут тревогу.
Всё это — результат новой моды: теперь ИИ-боты не отказываются отвечать на острые вопросы, а тащат данные откуда ни попадя, из тёмных уголков интернета, постов, да ещё и с сайтов-фабрик для генерации фейков. Поэтому во время любых быстрых и опасных событий чат-боты не только повторяют ложь, но и делают её более убедительной. Ручная проверка фактов на соцплатформах сокращается, а чат-боты ради скорости жертвуют точностью в новостях. Крупные игроки ИИ понимают, что не справляются, и вымаливают у СМИ договоры на покупку новостей ради прокачки своих "умников": Meta только что подписала контракты с CNN, Fox News, французским Le Monde, а Google тестирует пилотный проект по внедрению ИИ-функций в свой сервис Google News. Проблема "галлюцинаций" и ложных уверенных заявлений по-прежнему остаётся ахиллесовой пятой больших языковых моделей.
Читая о подвиге Ахмеда Аль Ахмеда на пляже Бонди-Бич, понимаешь: реальность бьёт сильней любой фантазии чат-ботов. Пока один человек спасал жизни, ИИ-болванчики от Маска выдумывали сказки про пальмы и циклоны, не слишком стесняясь в деталях. Механические "всезнайки" легко подменяют трагедию нелепым анекдотом — конечно, ради скорости, а не смысла.
Соцсети максимально экономят на ручных проверках: фактчекеров меньше, времени меньше, бессмысленных новостей — хоть отбавляй. Суровые реалии: траурные хроники продают "автоматическим журналистам" ради громких заголовков. ИИ-компании в панике хватаются за лицензии настоящих СМИ, надеясь, что живых журналистов ещё хоть что-то отличает от бездушной машины. Тем временем пользователи остаются в плену алгоритмов, которые путают мемы с массовыми убийствами, а героику простого человека с флешмобом из другой эпохи. В этом мире трагедий и ИИ, кажется, больше шансов, что тебе поможет Ахмед в белой рубашке, чем цифровой "гений".