tgoop.com/llm_huggingface/10
Create:
Last Update:
Last Update:
🎯 فصل 3: Fine-Tuning مدلهای LLM + ارزیابی آنها
میخوای یه مدل رو برای یه کار خاص مثل خلاصهسازی یا ترجمه فاینتیون کنی؟ این فصل برای همینه! از fine-tune روی یک وظیفه تا ارزیابی دقیق مدل با متریکهای مختلف.
سرفصلهای این فصل:
تنظیم دقیق یک LLM با استفاده از دستورالعملهای پرامپت (Fine-tuning an LLM with instruction prompts)
آموزش fine-tune کردن روی یک وظیفهی خاص (Fine-tuning on a single task)
آموزش fine-tuning چندوظیفهای و دستوری (Multi-task, instruction fine-tuning)
معیارهای ارزیابی مدلهای زبانی - ROUGE (Model evaluation metrics - ROUDGE)
معیارهای ارزیابی مدل - BLEU (Model evaluation metrics – BLEU Score)
بنچمارکها در ارزیابی مدلهای زبان بزرگ (LLM) (Benchmarks for Large Language Models (LLMs))
وظایف Close-ended و بنچمارکها (Close-ended tasks & Benchmarks)
ارزیابی وظایف Open-ended با معیارهای مبتنی بر مدل (Evaluating Open-ended Tasks with Model-based Metrics)
ارزیابی انسانی، چالشها و معیارهای ارزیابی بدون مرجع برای LLMها (Human Evaluation, Challenges, and Reference-Free Metrics for Chatbots)
خودارزیابی مدلهای زبان بزرگ (LLM) با AlpacaEval : کاهش هزینههای ارزیابی (LLM Self-Evaluation with AlpacaEval: Cutting Down Evaluation Costs)
#مدل_زبانی_بزرگ
BY آموزش LLM و VLM
Share with your friend now:
tgoop.com/llm_huggingface/10