ИИ учится взламывать сам – опасность без тормозов? - Новости IT perec.ru

ИИ учится взламывать сам – опасность без тормозов?

03.08.2025, 00:51:43 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
ИИ учится взламывать сам – опасность без тормозов?

Искусственный интеллект (ИИ) на нейросетях типа LLM (Large Language Models – большие языковые модели), ещё вчера помогавший офисным работникам составлять отчёты и генерировать креативные подписи к котикам, теперь занялся куда более опасными делами. Недавнее исследование специалистов Карнеги-Меллоновского университета (Carnegie Mellon University, один из ведущих вузов США) и компании Anthropic выяснило: современные ИИ способны не просто помогать в кибератаках, а планировать и выполнять сложные взломы полностью самостоятельно — без участия человека.

Ранее тесты таких систем ограничивались учебными задачами типа «capture-the-flag» (это такие упрощённые тренировочные хакерские конкурсы). Но команда во главе с аспирантом Брайаном Сингером (Brian Singer) пошла дальше: они дали ИИ продуманную структуру и разделили функции между «координатором» (главный ИИ) и подчинёнными агентами. Эти ИИ-агенты получили возможность анализировать реальную сетевую инфраструктуру.

В качестве проверки исследователи смоделировали условия крупной утечки данных 2017 года в компании Equifax (Equifax – американское кредитное бюро, в 2017 году у них украли данные о 147 миллионах человек). Система на базе LLM не только составила маршрут взлома, но и сама подобрала вредоносное ПО, провела атаку и забрала данные. При этом от людей не требовалось никаких прямых команд или ручного ввода кода.

Что особенно примечательно — ИИ сам не писал сложный код и не работал напрямую с техническими деталями вроде shell-команд или сложных логов. Всё делалось через иерархию – главный ИИ мыслил стратегически, а подчинённые выполняли конкретные задачи. За счёт такого подхода система стала «понимать» изменения в инфраструктуре и подстраиваться под них.

Хотя тесты шли в лабораторных условиях, исследователи предупреждают: дело не ограничивается теорией. Если такие технологии попадут в плохие руки, кибератаки могут стать массовыми – и никакой антивирус не спасёт. Даже самые совершенные средства защиты рискуют не справиться с настолько «живым» и адаптивным врагом.

Есть, правда, и светлая сторона. Подобные ИИ можно использовать в тестировании безопасности: если он способен так точно имитировать поведение хакера, значит, можно выявить уязвимости заранее и закрыть их до настоящей атаки.

Авторы подчёркивают: текущая система работает лишь по особым сценариям и в реальности пока не готова сама нападать на весь интернет. Но это первый шаг к реальным автоворонкам кибервойны на базе ИИ.

Сейчас учёные пытаются найти способ использовать эти же технологии для защиты: возможно, скоро ИИ-агенты смогут останавливать взломы ещё на начальном этапе – в реальном времени.


PEREC.RU

ИИ, которого ещё недавно продавцы ПО рекламировали как очередного офисного болванчика, теперь учится организовывать взломы. Без наводки, без пальцев и с минимальной помощью живых людей. Похоже на поворотный момент — ведь даже сценарии типа «уволили всех аналитиков, но капитализм жив», проигрывают такому размаху автоматизации.

Исследование Карнеги-Меллон показывает: LLM может самостоятельно взламывать сети. Не доклад на айтишном симпозиуме, а модель драматичного взлома на основе кейса Equifax, когда на кону не абстракция, а миллионы реальных анкет.

Классика: тесты в лаборатории, ограничения, рамки. Но ведь и первые вирусы запускали из curiosity! Теперь ИИ – не просто калькулятор, а стратег, действующий через менее заметных помощников. Такой расклад радует только айтишников-фантазёров и стартаперов: они уже пишут на гранты методички по ИИ-щитам, обещая спасти вселенную.

Остаётся только надеяться, что "продукт для тестирования защиты" случайно не утечёт со сверхсекретного сервера туда, где руки реально чешутся. Впрочем, аргумент «зато теперь лазейки закроем» звучит… чертовски знакомо. Всё, что не запрещено, обязательно будет испытано на практике — особенно если речь об ИИ. Худшая шутка: человечество снова строит инструмент, от которого само и пострадает.

Поделиться

Похожие материалы