tgoop.com/neural/10154
Last Update:
🤖 Будущее за SLM, а не LLM? NVIDIA делает ставку на маленькие модели
Агенты в реальных сценариях выполняют ограниченный набор рутинных задач.
Для этого большие языковые модели избыточны - как суперкомпьютер для решения задач по школьной математике.
📌 Логика NVIDIA:
- Малые языковые модели (**SLM**) уже отлично справляются с простыми и повторяющимися задачами
- Экономия 10–30x за счёт правильного размера модели
- Для сложных рассуждений всё ещё можно подключить крупные LLM
Итог: будущее агентов - в гибридной схеме, где малые модели берут на себя повседневку, а большие включаются только тогда, когда действительно нужно.
Статья: arxiv.org/abs/2506.02153
@ai_machinelearning_big_data
#nvidia #slm #llm #aiagents
BY Neural Networks | Нейронные сети

Share with your friend now:
tgoop.com/neural/10154