Новости IT: стратегия Google по созданию масштабируемой AI-обороны под контролем человека | Новости IT perec.ru

Google усиливает AI‑оборону бесконечного масштаба

10.05.2026, 16:01:00 ИТ
Подписаться на «Рифы и пачки / Твоя культура»
Google усиливает AI‑оборону бесконечного масштаба

Google объявила о расширении своей стратегии кибербезопасности, в центре которой стоит искусственный интеллект, но под контролем человека. Компания представила новые AI‑агенты, входящие в так называемый «полный AI‑стек» — это комплекс технологий, которые должны позволить защитным системам работать практически в неограниченном масштабе. Идея звучит как из рекламного буклета будущего: защита, которая сама анализирует угрозы, выявляет их, реагирует и учится на собственных действиях.

В основе новой модели — переход от традиционной защиты, где человек реагирует на проблему вручную, к системе, в которой большую часть работы выполняют специализированные AI‑агенты. Они должны отслеживать аномалии, блокировать атаки, автоматически обновлять правила безопасности и предлагать варианты действий. Однако, как подчёркивает Google, человек остаётся над ними старшим по званию: финальные решения, критические вмешательства и стратегический контроль всё ещё находятся в руках специалистов.

Компания объясняет: современные киберугрозы растут быстрее, чем человеческие возможности реагировать на них. AI же способен обрабатывать колоссальные объёмы данных и распознавать угрозы на скорости, недоступной человеку. Google утверждает, что новые агенты смогут обеспечивать защиту «на бесконечном масштабе», то есть обслуживать инфраструктуру любого размера — от небольших фирм до национальных сетей.

Сам «полный AI‑стек» Google включает три уровня: инфраструктурный, на котором работает вычислительная мощность; слой моделей, где сосредоточен обученный искусственный интеллект; и уровень приложений, где эти модели превращаются в специализированные инструменты безопасности. По словам компании, новые агенты как раз занимают верхний уровень — они действуют как автономные, но управляемые инструменты для анализа и защиты.

Google подчёркивает, что система не является полностью автономной. Каждый агент работает в рамках предустановленных политик безопасности, а любые критически важные шаги остаются за экспертами‑людьми. Таким образом, по задумке, компания хочет создать идеальное сочетание — скорость и масштаб AI плюс человеческая ответственность. Это должно снизить риск неконтролируемых решений, которые могут привести к сбоям или ошибочным блокировкам.

Вместе с тем, подход Google открывает новые вопросы: кто будет отвечать, если AI‑агент неверно оценит угрозу? Насколько прозрачны будут механизмы принятия решений? Как компании смогут контролировать поведение автономных систем? Google уверяет, что предусмотрела встроенные механизмы надзора, журналирование всех действий агентов и возможность мгновенного принудительного отключения.

Новое направление Google укладывается в тренд глобальной гонки вооружений в сфере кибербезопасности. Компании сталкиваются с всё более сложными атаками, включая автоматизированные угрозы, которые сами используют AI для обнаружения уязвимостей. В этой среде старые методы перестают работать, и гиганты вроде Google, Microsoft и других переходят к архитектурам, где AI играет ведущую роль.

Пока система находится в стадии постепенного внедрения, но Google уже заявляет, что будущее кибербезопасности невозможно без автономных защитных механизмов. Компания рассчитывает, что со временем такие AI‑агенты станут стандартом индустрии — тем самым Google пытается занять место у руля этого процесса.

Так или иначе, идея AI‑обороны бесконечного масштаба под присмотром человека звучит как компромисс между мечтой о полной автоматизации и страхом перед тем, что искусственный интеллект однажды начнёт принимать слишком самостоятельные решения. Будет ли эта модель работать — покажет только практика.


PEREC.RU

Google добавила в свою стратегию кибербезопасности новую партию AI‑агентов, которые должны защищать инфраструктуру «в бесконечном масштабе». Это часть их «полного AI‑стека» — архитектуры, где нижний уровень отвечает за вычисления, средний за модели, а верхний — за приложения, включая автономных защитников. Эти агенты анализируют угрозы, реагируют на атаки и обновляют правила безопасности, хотя ключевые решения остаются за людьми. Такой подход должен компенсировать стремительный рост киберугроз, с которым специалисты уже не справляются вручную. Однако система вызывает вопросы: как контролировать автономный ИИ, кто отвечает за ошибки, насколько прозрачно принятие решений. Google утверждает, что предусмотрела механизмы надзора, логи действий и возможность отключения агентов. Компания рассчитывает, что такая модель станет будущим киберобороны, хотя её эффективность ещё предстоит проверить.

Поделиться

Похожие материалы