PYTORCH_HOWSAM Telegram 508
تصویر اول، بلوک دیاگرام ساده‌ای از فاین‌تیون کردن مدل‌های دیپ رو نشون میده. خب احتمالا این تصویر کاملا برای شما مفهومه. همین قاعده برای حوزه LLM-ها هم صدق میکنه.

بریم سراغ تصویر دوم؛ در یادگیری عمیق، دو مولفه مهم داریم:
* داده
* مدل

بسته به حجم داده و مدل چهار حالت خواهیم داشت که در تصویر این چهار حالت برای فاین‌تیون کردن LLM-ها نشون داده شده.

چیزی که در تصویر بالا دلبری میکنه، داده کم/زیاد و مدل کوچک هست. مدل TinyLlama حدود 1.1 میلیارد پارامتر داره، اما میتونیم این مدل رو تنها با یک GPU فاین‌تیون کنیم. به عنوان نمونه، با داده کم (حداکثر 500 هزار توکن)، تنها با 100 دلار میشه این مدل رو فاین‌تیون کرد.

تصویر سوم هم بسیار جالب هست. بجای استفاده از Full Finetune، با روش‌هایی مثل LoRA و QLoRA میشه فاین‌تیون رو با GPU-ی کمتر، زمان کمتر و VRAM کمتر انجام داد. نمودارها مربوط به مدل دو میلیاردی Gemma هست.

این تصاویر، از سایت lightning.ai اومده و یک tutorial برای همین فاین‌تیون کردن آماده کردن:
https://lightning.ai/docs/overview/finetune-models



tgoop.com/pytorch_howsam/508
Create:
Last Update:

تصویر اول، بلوک دیاگرام ساده‌ای از فاین‌تیون کردن مدل‌های دیپ رو نشون میده. خب احتمالا این تصویر کاملا برای شما مفهومه. همین قاعده برای حوزه LLM-ها هم صدق میکنه.

بریم سراغ تصویر دوم؛ در یادگیری عمیق، دو مولفه مهم داریم:
* داده
* مدل

بسته به حجم داده و مدل چهار حالت خواهیم داشت که در تصویر این چهار حالت برای فاین‌تیون کردن LLM-ها نشون داده شده.

چیزی که در تصویر بالا دلبری میکنه، داده کم/زیاد و مدل کوچک هست. مدل TinyLlama حدود 1.1 میلیارد پارامتر داره، اما میتونیم این مدل رو تنها با یک GPU فاین‌تیون کنیم. به عنوان نمونه، با داده کم (حداکثر 500 هزار توکن)، تنها با 100 دلار میشه این مدل رو فاین‌تیون کرد.

تصویر سوم هم بسیار جالب هست. بجای استفاده از Full Finetune، با روش‌هایی مثل LoRA و QLoRA میشه فاین‌تیون رو با GPU-ی کمتر، زمان کمتر و VRAM کمتر انجام داد. نمودارها مربوط به مدل دو میلیاردی Gemma هست.

این تصاویر، از سایت lightning.ai اومده و یک tutorial برای همین فاین‌تیون کردن آماده کردن:
https://lightning.ai/docs/overview/finetune-models

BY PyTorch Howsam






Share with your friend now:
tgoop.com/pytorch_howsam/508

View MORE
Open in Telegram


Telegram News

Date: |

Click “Save” ; It’s yet another bloodbath on Satoshi Street. As of press time, Bitcoin (BTC) and the broader cryptocurrency market have corrected another 10 percent amid a massive sell-off. Ethereum (EHT) is down a staggering 15 percent moving close to $1,000, down more than 42 percent on the weekly chart. How to Create a Private or Public Channel on Telegram? According to media reports, the privacy watchdog was considering “blacklisting” some online platforms that have repeatedly posted doxxing information, with sources saying most messages were shared on Telegram. Users are more open to new information on workdays rather than weekends.
from us


Telegram PyTorch Howsam
FROM American