tgoop.com/nlpcoreteam/51
Create:
Last Update:
Last Update:
⚡️ Замеры LLaMA 2 на MMLU
Вчера вышла LLaMA 2, нам было интересно качество претрейн-моделей в русском.
Качество на MMLU выросло в среднем на 7 пунктов, как в английском, так и в русском, у всей линейки претрейн-моделей. Семь пунктов на MMLU впечатляет!
При этом русского языка на претрейне LLaMA 2 было всего 0.13%.
Замеряли кодом который выкладывали ранее. Контекст оставляли 2048 чтобы влезало тоже число few-shot примеров (токенайзер в LLaMA 2 такой же как и был в LLaMA 1).
До чат-моделей пока не добрались, и до 34B пока нет к ней доступа.
BY NLP Core Team

Share with your friend now:
tgoop.com/nlpcoreteam/51