Warning: mkdir(): No space left on device in /var/www/tgoop/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/machinelearnindigest/-1399-1400-): Failed to open stream: No such file or directory in /var/www/tgoop/post.php on line 50
Машинное обучение digest@machinelearnindigest P.1399
MACHINELEARNINDIGEST Telegram 1399
🧠 Андрей Карпаты научил nanochat считать буквы - и объяснил, как расширять способности модели.

Карпаты показал, как добавить новую функцию в мини-LLM nanochat d32, чьи размеры он сравнил с «мозгом пчелы».

Он обучил модель считать, сколько раз буква r встречается в слове strawberry - и использовал этот пример, чтобы показать, как можно наделять маленькие языковые модели новыми навыками через синтетические задачи.

Он использует задачу SpellingBee, которая генерирует диалоги вида:
> «Сколько букв r в слове strawberry?»
и правильные ответы.

После этого модель дообучается (**SFT**) или проходит обучение с подкреплением (RL), чтобы закрепить навык.

Далее модель проходит дообучение (SFT) или обучение с подкреплением (RL), чтобы закрепить навык.

Карпаты объясняет, что для маленьких моделей важно продумывать всё до мелочей, как разнообразить запросы, как устроена токенизация и даже где ставить пробелы.

Он показывает, что рассуждения лучше разбивать на несколько шагов, тогда модель легче «понимает» задачу.

Nanochat решает задачу двумя способами:
логически, рассуждая пошагово,
— и через встроенный Python-интерпретатор, выполняя вычисления прямо внутри чата.

🧩 Идея в том, что даже крошечные LLM можно «научить думать», если правильно подготовить примеры и синтетические данные.

📘 Полный разбор: github.com/karpathy/nanochat/discussions/164

@ai_machinelearning_big_data

#AI #Karpathy #Nanochat #LLM #SFT #RL #MachineLearning #OpenSource



tgoop.com/machinelearnindigest/1399
Create:
Last Update:

🧠 Андрей Карпаты научил nanochat считать буквы - и объяснил, как расширять способности модели.

Карпаты показал, как добавить новую функцию в мини-LLM nanochat d32, чьи размеры он сравнил с «мозгом пчелы».

Он обучил модель считать, сколько раз буква r встречается в слове strawberry - и использовал этот пример, чтобы показать, как можно наделять маленькие языковые модели новыми навыками через синтетические задачи.

Он использует задачу SpellingBee, которая генерирует диалоги вида:
> «Сколько букв r в слове strawberry?»
и правильные ответы.

После этого модель дообучается (**SFT**) или проходит обучение с подкреплением (RL), чтобы закрепить навык.

Далее модель проходит дообучение (SFT) или обучение с подкреплением (RL), чтобы закрепить навык.

Карпаты объясняет, что для маленьких моделей важно продумывать всё до мелочей, как разнообразить запросы, как устроена токенизация и даже где ставить пробелы.

Он показывает, что рассуждения лучше разбивать на несколько шагов, тогда модель легче «понимает» задачу.

Nanochat решает задачу двумя способами:
логически, рассуждая пошагово,
— и через встроенный Python-интерпретатор, выполняя вычисления прямо внутри чата.

🧩 Идея в том, что даже крошечные LLM можно «научить думать», если правильно подготовить примеры и синтетические данные.

📘 Полный разбор: github.com/karpathy/nanochat/discussions/164

@ai_machinelearning_big_data

#AI #Karpathy #Nanochat #LLM #SFT #RL #MachineLearning #OpenSource

BY Машинное обучение digest





Share with your friend now:
tgoop.com/machinelearnindigest/1399

View MORE
Open in Telegram


Telegram News

Date: |

How to Create a Private or Public Channel on Telegram? fire bomb molotov November 18 Dylan Hollingsworth yau ma tei The best encrypted messaging apps So far, more than a dozen different members have contributed to the group, posting voice notes of themselves screaming, yelling, groaning, and wailing in various pitches and rhythms. Users are more open to new information on workdays rather than weekends.
from us


Telegram Машинное обучение digest
FROM American