NN_FOR_SCIENCE Telegram 2508
🧠 HRM: маленькая модель, которая решает большие головоломки

Новая архитектура HRM решает сложные задачи вроде ARC‑AGI и Sudoku‑Extreme имея всего 27 млн параметров и ~1 000 примеров на задачу — без pretraining и chain-of-thought.

🤯 Что это вообще такое?

HRM — это двухуровневая нейросеть:
H-модуль (медленный): строит стратегию,
L-модуль (быстрый): реализует её по шагам.

Они итеративно «думают» до тех пор, пока не придут к стабильному решению — внутри одного forward pass, без CoT.

🛠 Как это работает

Модель устроена как диалог двух частей:

Планировщик предлагает стратегию, исполнитель пробует - и цикл повторяется, пока оба не «сходятся» на ответе (fixed-point convergence).

Обучение идёт без раскрутки всех шагов назад - модель учится прямо в точке согласия (implicit gradients).

А встроенный Q‑модуль сам решает, когда «достаточно подумала» и пора отвечать.

📊 Что получилось
ARC‑AGI: 40.3 % точности — выше многих CoT-моделей.
Sudoku‑Extreme, Maze‑Hard: 100 % точности, против 0 % у трансформеров.
Ресурсы: обучение от 2 до 200 GPU-часов — суперэкономично.

⚖️ Почему это важно

HRM показывает: reasoning можно делать не через текст, а внутри модели. Это эффективно по параметрам, быстро в inference и потенциально интерпретируемо.

Но пока всё это работает только на синтетических задачах. Масштабируемость и применимость в реальных кейсах - вопросы на которые только предстоит ответить.

🧩 Итог

HRM — попытка приблизить модели к человеческому мышлению: не просто продолжать текст, а по-настоящему планировать.

Ссылка

🗣️ Верите в latent reasoning?
Или CoT навсегда?
Пишите в комментариях - и поделитесь постом, если было интересно!
🔥21👍63



tgoop.com/nn_for_science/2508
Create:
Last Update:

🧠 HRM: маленькая модель, которая решает большие головоломки

Новая архитектура HRM решает сложные задачи вроде ARC‑AGI и Sudoku‑Extreme имея всего 27 млн параметров и ~1 000 примеров на задачу — без pretraining и chain-of-thought.

🤯 Что это вообще такое?

HRM — это двухуровневая нейросеть:
H-модуль (медленный): строит стратегию,
L-модуль (быстрый): реализует её по шагам.

Они итеративно «думают» до тех пор, пока не придут к стабильному решению — внутри одного forward pass, без CoT.

🛠 Как это работает

Модель устроена как диалог двух частей:

Планировщик предлагает стратегию, исполнитель пробует - и цикл повторяется, пока оба не «сходятся» на ответе (fixed-point convergence).

Обучение идёт без раскрутки всех шагов назад - модель учится прямо в точке согласия (implicit gradients).

А встроенный Q‑модуль сам решает, когда «достаточно подумала» и пора отвечать.

📊 Что получилось
ARC‑AGI: 40.3 % точности — выше многих CoT-моделей.
Sudoku‑Extreme, Maze‑Hard: 100 % точности, против 0 % у трансформеров.
Ресурсы: обучение от 2 до 200 GPU-часов — суперэкономично.

⚖️ Почему это важно

HRM показывает: reasoning можно делать не через текст, а внутри модели. Это эффективно по параметрам, быстро в inference и потенциально интерпретируемо.

Но пока всё это работает только на синтетических задачах. Масштабируемость и применимость в реальных кейсах - вопросы на которые только предстоит ответить.

🧩 Итог

HRM — попытка приблизить модели к человеческому мышлению: не просто продолжать текст, а по-настоящему планировать.

Ссылка

🗣️ Верите в latent reasoning?
Или CoT навсегда?
Пишите в комментариях - и поделитесь постом, если было интересно!

BY AI для Всех




Share with your friend now:
tgoop.com/nn_for_science/2508

View MORE
Open in Telegram


Telegram News

Date: |

During a meeting with the president of the Supreme Electoral Court (TSE) on June 6, Telegram's Vice President Ilya Perekopsky announced the initiatives. According to the executive, Brazil is the first country in the world where Telegram is introducing the features, which could be expanded to other countries facing threats to democracy through the dissemination of false content. It’s yet another bloodbath on Satoshi Street. As of press time, Bitcoin (BTC) and the broader cryptocurrency market have corrected another 10 percent amid a massive sell-off. Ethereum (EHT) is down a staggering 15 percent moving close to $1,000, down more than 42 percent on the weekly chart. With the sharp downturn in the crypto market, yelling has become a coping mechanism for many crypto traders. This screaming therapy became popular after the surge of Goblintown Ethereum NFTs at the end of May or early June. Here, holders made incoherent groaning sounds in late-night Twitter spaces. They also role-played as urine-loving Goblin creatures. The imprisonment came as Telegram said it was "surprised" by claims that privacy commissioner Ada Chung Lai-ling is seeking to block the messaging app due to doxxing content targeting police and politicians. 6How to manage your Telegram channel?
from us


Telegram AI для Всех
FROM American