BIGDATAI Telegram 1324
🧠 OpenThinker3-7B — новая открытая LLM для математики, кода и науки

Команда Open Thoughts представила OpenThinker3-7B — модель с 7B параметров, натренированную на 1.2M задач по математике, программированию и естественным наукам. Построена на базе Qwen2.5-7B-Instruct и удивляет точностью даже без RLHF.

🔍 Что внутри:
• 850 000 математических задач
• 250 000 задач по программированию
• 100 000 научных вопросов
• SFT (без RL) — но обходит модели до 32B

📊 Результаты (AIME24 / MATH500 / CodeElo):
• OpenThinker3-7B: 69.0 / 90.0 / 32.2
• DeepSeek-R1-Distill-32B: 51.3 / 88.0 / 21.1
• OpenThinker2-7B: 60.7 / 87.6 / 26.6

🧩 Ключевые фишки:
• Полностью открытая модель: веса, код, датасеты
• Работает с Evalchemy, CodeElo, GPQA, JEEBench
• Умеет точно рассуждать без цепочек промптов
• Превосходит модели в 3–5 раз больше по параметрам

⚙️ Технические детали:
• GPU: 512 × A100
• Время обучения: 48 часов
• PyTorch 2.3, Transformers 4.46
• Оптимизатор: AdamW, LR: 8e-5, cosine scheduler

🔗 Полезные ссылки:
https://huggingface.co/open-thoughts/OpenThinker3-7B
📂 Датасет: https://huggingface.co/datasets/open-thoughts/OpenThoughts3-1.2M
📄 Статья: https://arxiv.org/abs/2506.04178
💻 GitHub: github.com/open-thoughts/open-thoughts



tgoop.com/bigdatai/1324
Create:
Last Update:

🧠 OpenThinker3-7B — новая открытая LLM для математики, кода и науки

Команда Open Thoughts представила OpenThinker3-7B — модель с 7B параметров, натренированную на 1.2M задач по математике, программированию и естественным наукам. Построена на базе Qwen2.5-7B-Instruct и удивляет точностью даже без RLHF.

🔍 Что внутри:
• 850 000 математических задач
• 250 000 задач по программированию
• 100 000 научных вопросов
• SFT (без RL) — но обходит модели до 32B

📊 Результаты (AIME24 / MATH500 / CodeElo):
• OpenThinker3-7B: 69.0 / 90.0 / 32.2
• DeepSeek-R1-Distill-32B: 51.3 / 88.0 / 21.1
• OpenThinker2-7B: 60.7 / 87.6 / 26.6

🧩 Ключевые фишки:
• Полностью открытая модель: веса, код, датасеты
• Работает с Evalchemy, CodeElo, GPQA, JEEBench
• Умеет точно рассуждать без цепочек промптов
• Превосходит модели в 3–5 раз больше по параметрам

⚙️ Технические детали:
• GPU: 512 × A100
• Время обучения: 48 часов
• PyTorch 2.3, Transformers 4.46
• Оптимизатор: AdamW, LR: 8e-5, cosine scheduler

🔗 Полезные ссылки:
https://huggingface.co/open-thoughts/OpenThinker3-7B
📂 Датасет: https://huggingface.co/datasets/open-thoughts/OpenThoughts3-1.2M
📄 Статья: https://arxiv.org/abs/2506.04178
💻 GitHub: github.com/open-thoughts/open-thoughts

BY Big Data AI




Share with your friend now:
tgoop.com/bigdatai/1324

View MORE
Open in Telegram


Telegram News

Date: |

6How to manage your Telegram channel? Matt Hussey, editorial director at NEAR Protocol also responded to this news with “#meIRL”. Just as you search “Bear Market Screaming” in Telegram, you will see a Pepe frog yelling as the group’s featured image. Unlimited number of subscribers per channel Earlier, crypto enthusiasts had created a self-described “meme app” dubbed “gm” app wherein users would greet each other with “gm” or “good morning” messages. However, in September 2021, the gm app was down after a hacker reportedly gained access to the user data. Find your optimal posting schedule and stick to it. The peak posting times include 8 am, 6 pm, and 8 pm on social media. Try to publish serious stuff in the morning and leave less demanding content later in the day.
from us


Telegram Big Data AI
FROM American