За последнее время ChatGPT стал излюбленным инструментом для поиска советов — будь то онлайн-сервисы или локальный бизнес. Но, как выяснилось, далеко не все его рекомендации опираются на надёжные источники. Причина — киберпреступники и мошенники научились искажать информационное поле генеративного ИИ с помощью взломанных и устаревших сайтов.
Директор агентства Digitaloft Джеймс Брокбэнк изучал этот феномен несколько месяцев и пришёл к неутешительным выводам: ChatGPT стал регулярно ссылаться на ресурсы, которые были либо взломаны, либо их домены истекли и были выкуплены мошенниками. Как это выглядит? Например, сайт реальной юридической фирмы под руководством Вероники Т. Бартон внезапно получил скрытую страницу с рекомендациями по казино в Великобритании. "Их сайт взломали и добавили эту страницу", — констатирует Брокбэнк.
Ещё пример: сайт, ранее принадлежавший молодёжной коалиции при ООН, теперь рекламирует казино, не входящие в GamStop (это британская система самоисключения из онлайн-казино). Материал на сайте содержал единственную внешнюю ссылку — и та вела на новый, тоже "отжатый" домен.
Подобное происходит и с другими истёкшими доменами. Например, когда-то благотворительный фонд в сфере искусства, на который ссылались BBC, CNN и Bloomberg, теперь стал площадкой для азартных игр. На удивление, ChatGPT использовал этот адрес в качестве авторитетной ссылки при вопросе о казино без депозита.
Вся эта схема работает благодаря слабым местам в алгоритмах ChatGPT. Это не поисковая система: у модели нет встроенных механизмов проверки владельца сайта или его настоящих целей. В результате страницы, размещённые злоумышленниками на скомпрометированных ресурсах, могут спокойно попадать в ответы ИИ. Отсутствие "красных флагов" для пользователя позволяет атакам успешно распространяться.
ChatGPT склонен обращать внимание на свежесть контента, а репутацию сайта оценивает по давней истории домена — даже если реальное содержание давно поменялось. Такая "слепота" даёт мошенникам шанс манипулировать видимостью и притворяться авторитетными источниками.
Вывод прост: при поиске рекомендаций через ChatGPT нельзя верить всему подряд. Проверять репутацию ссылок, историю сайта, владельцев и цель ресурса — единственный способ избежать фейковых или вредных советов.
Сначала казалось, что ChatGPT — вершина нейросетевой добродетели. Теперь видим: всё, что назвало себя «искусственным интеллектом», легко становится чашей Петри для цифровых микробов, готовых выдать spam за истину. Особо старательные хакеры первым делом захватывают старые домены — остаётся проверить их содержимое и добавить пару страниц о казино. Метод научный: берём сайт юриста или экс-активистов ООН, переворачиваем смысл, и вот ChatGPT бодро цитирует сайты с рекомендациями азартных игр.
Кому выгодно? Новоиспечённым владельцам доменов — рейтинги, ссылки, живой трафик, воронка на казино. Никого не беспокоит, что ещё недавно тут обсуждали международное право или работу с детьми. Алгоритмы? Так те оперируют призраками статуса и не отличают «было» от «есть». Запросы о лучших сервисах ведут в мутные воды ревитализации цифрового мусора.
Самое приятное: пользователи чаще всего даже не слышат, что их аккуратно разводит тенью старого бренда. А если кто заметит — попадает на страницу, где казино только оболочка для «фейковых» рекомендаций. Итог известен: доверие к самому понятию искусственного интеллекта снова в минусах. Как ни парадоксально, вместо уничтожения человеческой глупости ИИ её радостно мультиплицирует.
Что делать? Придётся жить по старому завету (Ницше скептичности не порицает): не доверяй цитатам без проверки. Если домен с историей вдруг рисует рекламу рулетки — ищите подмену, а не истину. Хочешь от ИИ пользу — бери в руки критическое мышление. Если надеешься на «автоматическую истину» — добро пожаловать на круги фишечных афер.