tgoop.com/AGI_and_RL/1033
Last Update:
Может кому-то интересны локальные ллмки с длинными контекстами.
Нвидия потюнили лламы 3.1 8B аж до 4м контекста как они пишут.
С одной стороны это круто. С другой стороны я чот ни одной хорошей ллмки от нвидии не видел. Все что не щупал, ну оно прям чот не оч. Но времена-то меняются, да?
Самому мне негде такой контекст инферить и тестить.
Если потестите - отпишитесь в комменты пж)
Насчет русского языка - хз
Ну и если кому интересно - можно статью почитать
From 128K to 4M: Efficient Training of Ultra-Long Context Large Language Models
https://arxiv.org/abs/2504.06214
https://ultralong.github.io/
Модельки https://huggingface.co/collections/nvidia/ultralong-67c773cfe53a9a518841fbbe
PS собираемся и собираем все крутое по АИшке (и проектики делаем, да) тут https://www.tgoop.com/researchim
BY Агенты ИИ | AGI_and_RL

Share with your friend now:
tgoop.com/AGI_and_RL/1033