tgoop.com/bigdatai/1324
Last Update:
🧠 OpenThinker3-7B — новая открытая LLM для математики, кода и науки
Команда Open Thoughts представила OpenThinker3-7B — модель с 7B параметров, натренированную на 1.2M задач по математике, программированию и естественным наукам. Построена на базе Qwen2.5-7B-Instruct и удивляет точностью даже без RLHF.
🔍 Что внутри:
• 850 000 математических задач
• 250 000 задач по программированию
• 100 000 научных вопросов
• SFT (без RL) — но обходит модели до 32B
📊 Результаты (AIME24 / MATH500 / CodeElo):
• OpenThinker3-7B: 69.0
/ 90.0
/ 32.2
• DeepSeek-R1-Distill-32B: 51.3
/ 88.0
/ 21.1
• OpenThinker2-7B: 60.7
/ 87.6
/ 26.6
🧩 Ключевые фишки:
• Полностью открытая модель: веса, код, датасеты
• Работает с Evalchemy, CodeElo, GPQA, JEEBench
• Умеет точно рассуждать без цепочек промптов
• Превосходит модели в 3–5 раз больше по параметрам
⚙️ Технические детали:
• GPU: 512 × A100
• Время обучения: 48 часов
• PyTorch 2.3, Transformers 4.46
• Оптимизатор: AdamW, LR: 8e-5, cosine scheduler
🔗 Полезные ссылки:
https://huggingface.co/open-thoughts/OpenThinker3-7B
📂 Датасет: https://huggingface.co/datasets/open-thoughts/OpenThoughts3-1.2M
📄 Статья: https://arxiv.org/abs/2506.04178
💻 GitHub: github.com/open-thoughts/open-thoughts
BY Big Data AI

Share with your friend now:
tgoop.com/bigdatai/1324