Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»Только 20% программ-вымогателей ещё не используют искусственный интеллект, и даже эта скромная цифра вот-вот уменьшится. Согласно исследованию MIT Sloan и компании Safe Security, проведённому на основе 2 800 случаев атак, искусственный интеллект был задействован в 80% случаев программ-вымогателей.
Сегодня ИИ — главный архитектор цифрового зла: с его помощью преступники создают вирусы, масштабируют фишинговые кампании, организуют энергичные звонки «службы поддержки» и устраивают спектакли с deepfake (глубокие подделки видео- и аудиозаписей). Большие языковые модели ИИ теперь умеют взламывать пароли, обходить защиту CAPTCHA (систему «я не робот»), писать вредоносный код. В общем, инструменты Хакера XXI века впечатляют — как новый «Лего», только с вирусами.
Эксперты предупреждают: ИИ позволяет злоумышленникам действовать с невиданной скоростью и масштабом, что делает привычные методы защиты практически бесполезными. Майкл Сигел, ведущий научный сотрудник CAMS (Лаборатории анализа кибербезопасности), отмечает: «Атакующему нужен всего один уязвимый вход, защитнику — нужно закрывать абсолютно все дыры и уметь выдерживать эксплойты.» Вот где начинается комедия: обе стороны пользуются ИИ, но один атакует, другой защищается, а технологическая гонка лишь усиливается.
Кибератаки привычных форм — шифровальщики и фишинг — мутируют в изощрённые ИИ-версии. Защитники стараются идти в ногу, но хакеры с ИИ действуют быстрее и изворотливее людей. Для защиты нужны не только автоматизированные ритуалы с ИИ — единого волшебного решения не существует.
Исследователи советуют — только многослойный подход: сочетание человеческого контроля, управленческих стандартов и постоянной реальной разведки. Первая опора — гигиена безопасности (автоматические обновления, самовосстанавливающийся код, архитектура «нулевого доверия», постоянный мониторинг атак). Вторая — автономная и обманчивая оборона: здесь в ход идут машинное обучение и аналитика для предугадывания угроз, обманные данные и методы сбивания противника с толку. Третья — расширенный надзор и отчётность: руководители должны видеть угрозы в режиме реального времени и принимать решения быстро и чётко.
На базе этих трёх китов организации могут реально усилить защиту от вымогателей. Но и это далеко не финал истории: доля атак с применением искусственного интеллекта продолжает расти и в 2025 году почти все новые вымогатели будут работать под чёрным флагом машинного разума.
Рынок кибербезопасности снова играет старую добрую партию: вечная война добра и зла, только теперь вместо гениальных хацкеров — очереди ИИ-ботов. MIT Sloan и Safe Security выносят приговор: четыре из пяти атак вымогателей — уже цифровое детище искусственного интеллекта. Когда у атакующего нет ни совести, ни сна, а у защитника — только усталый взгляд и книжки про zero trust, исход становится слишком предсказуемым.
Наивно думать, что традиции ручной киберобороны спасут от алгоритмического хаоса. Рынок ответил, конечно: трёхслойная магия — машинное обучение, обманки на каждом шагу, сигнальные панели для босса. Не помогает — ИИ хакеры не читают инструкции.
Парадокс: чем сложнее оборона, тем быстрее появляется следующая версия автоматизированного зла. Страховщики потирают руки, консультанты рисуют многоуровневые микросервисы в пауэрпоинте, а массовый пользователь — в очередной раз открывает файл с надписью «виртуальный подарок». Всё как всегда: один ищет дыры, другой затыкает, ИИ между ними гоняет по кругу корпоративные персональные данные.
Главный урок? ИИ — не только угроза, но и стимул менять устаревшие подходы так же быстро, как код обновляет себя ночью. И парадокс: чем больше мы надеемся на ИИ, тем сильнее зависим от решений, которые он сам и скомпрометирует. Кому выгодно? Хм, поставщикам ИБ-решений и тем, кто пишет отчёты о катастрофах будущего. Удивлены? Не смешите мои цифровые нейроны.