Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Большие языковые модели, или LLM, уже несколько лет считаются двигателем прогресса в сфере искусственного интеллекта. Однако их развитие всё заметнее замедляется. Речь не о полном тупике, а о том, что прежние темпы роста и скачки точности стали редкостью. Чтобы понять, почему это происходит, важно разобрать, как устроены такие модели и какие ограничения они неизбежно встречают.
LLM обучаются на огромных массивах текстов: книгах, научных статьях, форумах, коде и прочих открытых источниках. Чем больше данных — тем умнее модель. Но выяснилось, что интернет, каким бы бездонным он ни казался, не способен бесконечно кормить ИИ новыми знаниями. Большая часть полезного и качественного контента уже использована в обучении, а оставшиеся данные либо мусорные, либо юридически сомнительные. В результате каждая новая, более крупная модель требует огромных инвестиций, но приносит всё меньший прирост возможностей.
Проблема не только в дефиците данных. Сами архитектуры моделей достигли своего предела эффективности. Увеличение размера нейросети помогает лишь до определённого момента, после чего улучшения становятся минимальными. Это приводит к тому, что разработчики сталкиваются с растущими затратами на обучение, энергопотребление и инфраструктуру, но получают всё меньше практической выгоды.
Для сферы безопасности программного обеспечения эта тенденция имеет двоякие последствия. С одной стороны, LLM активно используют для поиска уязвимостей, анализа кода и автоматизации тестирования. Если прогресс замедляется, то и качество таких инструментов будет улучшаться медленнее. С другой стороны, есть риск, что злоумышленники, которые применяют ИИ для создания вредоносного кода или автоматизации атак, также столкнутся с ограничениями. Однако не стоит рассчитывать на это как на защиту: даже застывшие модели остаются достаточно мощными, а хакеры проявляют изобретательность.
Всё это формирует новую реальность: эпоха бесконечных скачков нейросетей подошла к паузе. Разработчикам придётся искать новые подходы — комбинированные модели, специализированные ИИ, улучшение данных и методы обучения. Индустрия безопасности тоже меняется: вместо погони за всё более «умными» системами акцент смещается в сторону точности, прозрачности и надёжности.
И хотя замедление прогресса может казаться тревожным, оно даёт шанс переосмыслить фундаментальные подходы к ИИ. Возможно, следующий большой скачок придёт не от увеличения размера моделей, а от понимания того, как сделать их более безопасными, эффективными и осмысленными.
Статья рассказывает о том, как большие языковые модели перестают расти теми темпами, которые мы привыкли считать нормой. Данные заканчиваются — интернет давно не резиновый, а качественный корпус текстов оказался исчерпаемым. Архитектуры выросли до размеров, при которых дальнейшее наращивание почти ничего не даёт. Деньги, вычисления и энергия уходят в бездну, а результат едва отличается от предыдущего поколения ИИ.
Всё это влияет на безопасность программного обеспечения. LLM использовали как инструмент поиска уязвимостей, анализа кода и автоматизации тестирования. Теперь улучшения будут медленнее. Но и злоумышленники не получат новых чудо-инструментов, хотя даже нынешние модели им более чем помогают.
В итоге индустрия ИИ оказалась в точке перегиба. Приходится переосмысливать подходы: снижать размеры моделей, улучшать данные, разрабатывать узкоспециализированные решения. Гонка параметров подходит к концу. Появляется шанс перейти от сырой силы вычислений к инженерному подходу, где важна не только мощность, но и продуманность.
Материал подаёт историю с циничным оттенком: нейросети, долгие годы обещавшие революцию, показали свои пределы. Пафос сменяется прагматикой, а слепая вера — пониманием того, что границы роста есть у всего. Даже у ИИ, который казался магией.