Как SLM и графы знаний взламывают ИИ: революция малых моделей

30.07.2025, 08:52:14ИТОбщество
Как SLM и графы знаний взламывают ИИ: революция малых моделей

Как SLM и графы знаний взламывают ИИ
Сегодня новости про прорывы в области гигантских языковых моделей (LLM) появляются чаще, чем новые мемы. Эти монстры искусственного интеллекта становятся умнее и дешевле, но зачем вообще задумываться о малых языковых моделях (SLM)? На самом деле, если ваша команда действительно хочет внедрять ИИ в реальный, бизнес-контекст, крупные модели не всегда лучший вариант. Иногда их «младшие братья» — SLM — справляются лучше, да ещё и сэкономят бюджет.

В чем суть? LLMы прекрасно подходят для широких задач, где не важно, в какой отрасли вы работаете. А вот в специфических обращениях — будь то финансы, логистика или склад — SLM, или даже несколько SLM, могут дать фору своим крупногабаритным собратьям. Как это работает? Пример от DeepSeek R1: у него 671 миллиард параметров, но на конкретный запрос активируется только до 37 млрд. То есть вся армия нейронов ему не нужна, достаточно отправить на задание спецназ.

Вместо того чтобы грузить большую модель решать все подряд, выгоднее использовать «узкие» SLM на участках: финансы, операции, логистика. Результаты — уже более точные и релевантные. Дальше эти ответы собирает одна, более общая модель и делает из них умный, связный итог — почти как мозг человека: язык, память, моторика — за всё отвечает своя зона.

Попробуйте сами: спросите ChatGPT (он как раз типичный LLM) сколько серверов у вас на AWS — и почти наверняка получите фантазию на вольную тему. А если связать SLM, умеющий точно считать, и LLM для объяснений — получите конкретный и человечный ответ. Для прогнозов обычно выигрывает вообще классическая статистика, а SLM чуть-чуть «подкрутит» параметры, а LLM всё по-русски расскажет.

Малые модели часто не только дешевле — они могут серьёзно выигрывать в узких темах. Возьмите Phi-2 от Microsoft: эта компактная модель, натасканная на математику и код, разделывает более крупных коллег на своём поле. Пока никому не удалось сделать универсального супер-ИИ — потому что то, что хорошо для всего, редко идеально для чего-то конкретного.

Гранулярность правит балом. Ваше производство не интересует победитель ЧМ-1930 — вам важно, как работает ваш завод, в чём специфика бизнес-процессов. И на SLM вы не разоритесь: нужно меньше железа, меньше электричества, а тренировать их под себя может даже «команда из двоих», что особенно круто для средних бизнесов.

Но, увы, всё не так просто. Хотите внедрить SLM — будьте добры кормить свежими, релевантными данными. LLM и SLM обычно тренируют на больших порциях информации, и обновлять их «на лету» — непросто. Выход — использовать графовые технологии знаний: граф знаний становится для SLM живым тьютором, который всегда знает актуальные факты.

Когда эти два подхода соединяются (малая модель плюс граф знаний), всё становится быстрее, дешевле и точнее. А если добавить популярную сейчас технологию Retrieval-Augmented Generation (RAG) и особенно её версию с графами данных (GraphRAG), вы получаете настоящий прорыв: ИИ теперь умеет находить и использовать для ответа только самую актуальную и важную информацию — и никакой отсебятины.

Результат? Бизнес-задачи решаются чётко и быстро, без лишней болтовни. И самое главное: движение не за гигантскими LLM, а за умной комбинацией SLM и GraphRAG, под заточенную под задачу, а не на абстрактную гениальность.


perec.ru

Кажется, ИИ-прогресс заколдован одним сценарием: больше мощности, больше шума, больше бюджетов, — а вот практической пользы, как от сейфа с тремя кодовыми замками, в котором лежит пустая коробка.

SLM возникает как спасительный выход для тех, кто понимает: иногда специалист лучше, чем универсал с дипломом "всё обо всём". Бизнес не интересует атомная бомба машинного обучения — им бы отчёт без выдумок и остаток на складе без фантазий. Разработчики не хотят платить за ресурсы больше, чем за двухкомнатную квартиру на Тверской.

И всё-таки настоящая магия начинается, когда малые модели приходят в пару к графу знаний: теперь нейронка не только аккуратнее, но и со свежачком — все последние данные под рукой. Российского рынка это касается особо: любой средний бизнес теперь может позволить себе не игрушку, а вполне рабочий инструмент для решения конкретных задач.

Любителям гигантских LLM остаётся утешаться мыслями о будущей AGI. Пока же выигрывают осторожные прагматики: меньше — значит умнее, быстрее, дешевле. Слишком уж соблазнительно, чтобы не попробовать. SLM становится главным инвестпроектом для всех, кому не до абстракций.

Поделиться

Как SLM и графы знаний взламывают ИИ: революция малых моделей | Экспресс-Новости