tgoop.com/data_analysis_ml/3755
Create:
Last Update:
Last Update:
Apple выложила Sage Mixtral 8x7B fine-tune с лицензией Apache
💡 Это не просто ещё одна доработка LLM — модель использует State-Action Chains (SAC), чтобы встроить в диалоговую генерацию латентные переменные для эмоций и стратегий общения.
Что это даёт:
- SAC vs обычный fine-tune: модель получает грубое управление через state/action токены → диалоги становятся эмоционально насыщеннее, без потери на метриках
- Итеративная доработка: self-play + tree search позволяют оптимизировать диалоги по цепочкам действий, превзойдя базовые модели по оценкам LLM-судей
🔗 https://huggingface.co/apple/sage-ft-mixtral-8x7b
#apple #opensource
BY Анализ данных (Data analysis)

Share with your friend now:
tgoop.com/data_analysis_ml/3755