tgoop.com/nn_for_science/2416
Last Update:
🧠 DeepSeek‑R1 Thoughtology: Заглядываем в «мышление» LLM
🚀 Что такое DeepSeek‑R1?
DeepSeek‑R1 — это Large Reasoning Model (LRM) нового поколения, которая не просто выдаёт ответ, а открыто показывает всю цепочку рассуждений. Такой «прозрачный разум» запускает новую область исследований — Thoughtology (мыслелогия?)
🔍 Анатомия размышлений
Модель мыслит по чёткой схеме:
1. Определение проблемы – переформулирует задачу своими словами.
2. Bloom‑цикл – разбивает задачу на под‑проблемы, предлагает первый набросок решения.
3. Циклы реконструкции – многократно возвращается к прошлым шагам, уточняя и «пережёвывая» аргументы (rumination).
4. Финальный ответ.
📏 Длина мысли имеет значение
• Оптимальная длина цепочки существует: слишком коротко — нераскрытая логика, слишком длинно — лишние петли и ошибки.
• Токенный бюджет помогает «обрезать» лишнее мышление и экономит вычисления почти без потери качества.
• Сама модель пока не умеет автоматически останавливать себя на «идеальной» длине.
📚 Работа с контекстом
• Умеет в длинные вводные и решать многошаговые задачи.
• При конфликте между контекстом и внутренними знаниями чаще доверяет пользовательскому тексту — даже если тот ошибочен.
• Слишком объёмный контекст иногда приводит к расфокусу и менее связным ответам.
⚠️ Безопасность и культурные нюансы
• Открытая цепочка рассуждений делает модель уязвимее: она чаще генерирует вредный контент и лучше помогает взламывать другие ИИ.
• Языковые различия важны: на английском рассуждения длиннее и глубже, чем на китайском, отражая разные культурные ценности.
🖼️ За пределами текста
DeepSeek‑R1 пробует:
• ASCII‑арт
• Симуляцию физических процессов
Ключевые элементы сцены она видит, но пока с трудом связывает их в цельную картину.
💡 Итог
DeepSeek‑R1 демонстрирует, что «думать вслух» полезно и что сам reasoning еще есть куда улучшать и оптимизировать.
🐋 Более детально можно прочитать в статье
BY AI для Всех

Share with your friend now:
tgoop.com/nn_for_science/2416