LLM_HUGGINGFACE Telegram 11
⚙️ فصل 4: فاین‌تیون کارآمد با PEFT

اگر منابع سخت‌افزاری کم داری یا بهینه‌بودن برات مهمه، این فصل راه‌حل رو ارائه می‌ده. از LoRA و Soft Prompt گرفته تا پروژه‌های عملی در خلاصه‌سازی، ترجمه و تولید متن.

سرفصل‌های این فصل:

    آشنایی با PEFT: روش‌های تنظیم دقیق کارآمد پارامترها

Introduction to PEFT: Parameter-Efficient Fine-Tuning Methods

انطباق کم‌رتبه مدل‌های زبانی بزرگ (LoRA)

Low-Rank Adaptation of Large Language Models
(LoRA)

تنظیم پرامپت با soft prompt‌ها
Prompt tuning with soft prompts

نحوه کرایه GPU ابری از Vast.ai
Power Up Your LLM Training with Vast.ai GPU Rentals

پیاده سازی فاین‌تیون مدل هوش مصنوعی مولد برای خلاصه‌سازی گفت‌وگو

Fine-Tuning a Generative AI Model for Dialogue Summarization

فاین‌تیون کارآمد پارامترها (PEFT) برای خلاصه‌سازی گفت‌وگو: راه‌اندازی، آموزش و ارزیابی

Parameter-Efficient Fine-Tuning (PEFT) for Dialogue Summarization: Setup, Training, and Evaluation

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۱: راه‌اندازی نوت‌بوک و ورود به Hugging Face

IMDB Review Classification with Gemma2 – Part 1: Notebook Setup and Hugging Face Login

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۲: پیش‌پردازش داده‌ها، توکن‌سازی و آماده‌سازی برچسب‌ها

IMDB Review Classification with Gemma2 – Part 2: Data Preprocessing, Tokenization, and Label Preparation

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۳: تعریف معیارهای ارزیابی، کوانتیزاسیون و بارگذاری مدل ۴-بیتی
IMDB Review Classification with Gemma2 – Part 3: Evaluation Metrics, Quantization, and 4-bit Model Loading

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۴: آموزش مدل با استفاده از QLoRA

IMDB Review Classification with Gemma2 – Part 4: Model Training with QLoRA

ترجمه انگلیسی به فارسی با Gemma2-9B – بخش ۱: بارگذاری داده، آماده‌سازی مدل، و تولید اولیه ترجمه‌ها
English-to-Persian Translation with Gemma2-9B – Part 1: Loading Data, Preparing the Model, and Initial Translations

ترجمه انگلیسی به فارسی با Gemma2-9B – بخش ۲: ارزیابی کیفیت ترجمه با معیار BLEU و دیتاست PEPC
English-to-Persian Translation with Gemma2-9B – Part 2: Evaluating Translation Quality with BLEU and PEPC Dataset

ترجمه انگلیسی به فارسی با Gemma2-9B – بخش ۳: تنظیم LoRA و آموزش مدل با QLoRA
English-to-Persian Translation with Gemma2-9B – Part 3: LoRA Setup and Model Training with QLoRA

ترجمه انگلیسی به فارسی با Gemma2-9B –: بارگذاری مدل آموزش‌دیده و استنتاج (Inference)

English-to-Persian Translation with Gemma2-9B: Loading the Fine-Tuned Model and Performing Inference

آموزش Prompt Tuning با PEFT - بخش ۱: مقدمه و بارگذاری مدل Bloom
Prompt Tuning with PEFT – Part 1: Introduction and Loading the Bloom Model

آموزش Prompt Tuning با PEFT - بخش ۲: آماده‌سازی داده‌ها و ساخت دو مدل مختلف
Prompt Tuning with PEFT – Part 2: Preparing Datasets and Building Two Tuned Models

آموزش Prompt Tuning با PEFT - بخش ۳: آموزش مدل‌ها، ذخیره‌سازی و انجام استنتاج
Prompt Tuning with PEFT – Part 3: Training, Saving, and Running Inference

آموزش تولید شعر فارسی با GPT2 - بخش ۱: آماده‌سازی داده‌های شعر

Training Persian Poetry Generation with GPT2 – Part 1: Preparing Poetry Dataset

آموزش تولید شعر فارسی با GPT2 - بخش ۲: ساخت و توکنایز کردن مدل زبان فارسی

Training Persian Poetry Generation with GPT2 – Part 2: Building and Tokenizing the Persian Language Model

آموزش تولید شعر فارسی با GPT2 - بخش ۳: آموزش، اعتبارسنجی و تولید شعر

Training Persian Poetry Generation with GPT2 – Part 3: Training, Validation, and Poetry Generation


#مدل_زبانی_بزرگ
🔥5



tgoop.com/llm_huggingface/11
Create:
Last Update:

⚙️ فصل 4: فاین‌تیون کارآمد با PEFT

اگر منابع سخت‌افزاری کم داری یا بهینه‌بودن برات مهمه، این فصل راه‌حل رو ارائه می‌ده. از LoRA و Soft Prompt گرفته تا پروژه‌های عملی در خلاصه‌سازی، ترجمه و تولید متن.

سرفصل‌های این فصل:

    آشنایی با PEFT: روش‌های تنظیم دقیق کارآمد پارامترها

Introduction to PEFT: Parameter-Efficient Fine-Tuning Methods

انطباق کم‌رتبه مدل‌های زبانی بزرگ (LoRA)

Low-Rank Adaptation of Large Language Models
(LoRA)

تنظیم پرامپت با soft prompt‌ها
Prompt tuning with soft prompts

نحوه کرایه GPU ابری از Vast.ai
Power Up Your LLM Training with Vast.ai GPU Rentals

پیاده سازی فاین‌تیون مدل هوش مصنوعی مولد برای خلاصه‌سازی گفت‌وگو

Fine-Tuning a Generative AI Model for Dialogue Summarization

فاین‌تیون کارآمد پارامترها (PEFT) برای خلاصه‌سازی گفت‌وگو: راه‌اندازی، آموزش و ارزیابی

Parameter-Efficient Fine-Tuning (PEFT) for Dialogue Summarization: Setup, Training, and Evaluation

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۱: راه‌اندازی نوت‌بوک و ورود به Hugging Face

IMDB Review Classification with Gemma2 – Part 1: Notebook Setup and Hugging Face Login

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۲: پیش‌پردازش داده‌ها، توکن‌سازی و آماده‌سازی برچسب‌ها

IMDB Review Classification with Gemma2 – Part 2: Data Preprocessing, Tokenization, and Label Preparation

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۳: تعریف معیارهای ارزیابی، کوانتیزاسیون و بارگذاری مدل ۴-بیتی
IMDB Review Classification with Gemma2 – Part 3: Evaluation Metrics, Quantization, and 4-bit Model Loading

طبقه‌بندی نظرات IMDB با Gemma2 - بخش ۴: آموزش مدل با استفاده از QLoRA

IMDB Review Classification with Gemma2 – Part 4: Model Training with QLoRA

ترجمه انگلیسی به فارسی با Gemma2-9B – بخش ۱: بارگذاری داده، آماده‌سازی مدل، و تولید اولیه ترجمه‌ها
English-to-Persian Translation with Gemma2-9B – Part 1: Loading Data, Preparing the Model, and Initial Translations

ترجمه انگلیسی به فارسی با Gemma2-9B – بخش ۲: ارزیابی کیفیت ترجمه با معیار BLEU و دیتاست PEPC
English-to-Persian Translation with Gemma2-9B – Part 2: Evaluating Translation Quality with BLEU and PEPC Dataset

ترجمه انگلیسی به فارسی با Gemma2-9B – بخش ۳: تنظیم LoRA و آموزش مدل با QLoRA
English-to-Persian Translation with Gemma2-9B – Part 3: LoRA Setup and Model Training with QLoRA

ترجمه انگلیسی به فارسی با Gemma2-9B –: بارگذاری مدل آموزش‌دیده و استنتاج (Inference)

English-to-Persian Translation with Gemma2-9B: Loading the Fine-Tuned Model and Performing Inference

آموزش Prompt Tuning با PEFT - بخش ۱: مقدمه و بارگذاری مدل Bloom
Prompt Tuning with PEFT – Part 1: Introduction and Loading the Bloom Model

آموزش Prompt Tuning با PEFT - بخش ۲: آماده‌سازی داده‌ها و ساخت دو مدل مختلف
Prompt Tuning with PEFT – Part 2: Preparing Datasets and Building Two Tuned Models

آموزش Prompt Tuning با PEFT - بخش ۳: آموزش مدل‌ها، ذخیره‌سازی و انجام استنتاج
Prompt Tuning with PEFT – Part 3: Training, Saving, and Running Inference

آموزش تولید شعر فارسی با GPT2 - بخش ۱: آماده‌سازی داده‌های شعر

Training Persian Poetry Generation with GPT2 – Part 1: Preparing Poetry Dataset

آموزش تولید شعر فارسی با GPT2 - بخش ۲: ساخت و توکنایز کردن مدل زبان فارسی

Training Persian Poetry Generation with GPT2 – Part 2: Building and Tokenizing the Persian Language Model

آموزش تولید شعر فارسی با GPT2 - بخش ۳: آموزش، اعتبارسنجی و تولید شعر

Training Persian Poetry Generation with GPT2 – Part 3: Training, Validation, and Poetry Generation


#مدل_زبانی_بزرگ

BY آموزش LLM و VLM


Share with your friend now:
tgoop.com/llm_huggingface/11

View MORE
Open in Telegram


Telegram News

Date: |

You can invite up to 200 people from your contacts to join your channel as the next step. Select the users you want to add and click “Invite.” You can skip this step altogether. 5Telegram Channel avatar size/dimensions While some crypto traders move toward screaming as a coping mechanism, many mental health experts have argued that “scream therapy” is pseudoscience. Scientific research or no, it obviously feels good. Administrators 2How to set up a Telegram channel? (A step-by-step tutorial)
from us


Telegram آموزش LLM و VLM
FROM American