Tensorflow(@CVision)
این روش برای طول متنهای کوتاه خوبه، اما برای متون بلند میتونه پرهزینه باشه، چون خوندن کش هزینه داره و بایستی همه بردارها رو در حافظه با پهنای باند بالا GPU ذخیره تا هنگام نیاز به هسته های تنسور بارگذاری کنیم. اگر هر توکن نیاز داشته باشه که کل متن گذشته…
یکی از روش های رایج که مدل های متن باز ازش استفاده میکنند Grouped-Query Attention و Multi-Query Attention هست که اندازه کش KV رو به طور قابل توجهی کاهش میدن.
مدل های متن باز مثل Llama 3.3 70B و Mistral Large 2 از این روش استفاده کردن و اندازه کش KV رو به شکل چشمگیری کاهش دادن.
https://arxiv.org/pdf/1911.02150
در معماری Multi-Head Attention، هر head مجموعه منحصر به فردی از بردارهای Q، K و V رو محاسبه میکنه اما در معماری Multi-Query Attention، فقط بردارهای Q برای هر head منحصر به فرده، در حالی که بردارهای Key و Value بین همه head ها به اشتراک گذاشته میشه.
در این حالت با توجه به فرمول قبل اندازه حافظه مورد نیاز به 468MB کاهش پیدا میکنه! اما مقاله زیر نشون میده که این روش مشکلاتی رو در وظایفی مثل خلاصه سازی متون رو میتونه به همراه داشته باشه و معماری Multi-Head Attention در این وظایف بهتر عمل میکنه.
https://arxiv.org/abs/2305.13245
همونطور که میدونید مدل هایی که از معماری transformer استفاده میکنن اغلب به حافظه بیشتری نسبت به مقدار حافظه ای که در یک GPU قرار داره، نیاز دارن بنابراین به نوعی از موازی سازی برای آموزش و استنتاج نیاز داریم! موازی سازی تنسور(Tensor Parallelism) روشی برای موازی سازی مدل های بزرگ تولید متن هست.
به طور خلاصه، موازی سازی تنسور با اختصاص attention head مختلف به GPUهای مختلف کار میکنه.
برای مثال، مدل ۱۷۵ میلیارد پارامتری GPT-3 دارای ۹۶ head هست. میتونیم این مدل رو روی ۸ GPU با اختصاص ۱۲ head به هر کدام موازی کنیم.
هر GPU کل محاسبات attention رو برای head اختصاص داده شده خودش انجام میده، در نهایت همه GPUها نتایج محاسبات خودشون رو مبادله میکنن.
اما در معماری Multi-Query Attention، هر attention head روی مجموعه یکسانی از بردارهای K و V عمل میکنه و این یعنی ما مجموعه یکسانی از بردارهای K و V را روی هر GPU محاسبه و کش میکنیم.
https://arxiv.org/abs/1910.10683
ادامه دارد...
مدل های متن باز مثل Llama 3.3 70B و Mistral Large 2 از این روش استفاده کردن و اندازه کش KV رو به شکل چشمگیری کاهش دادن.
https://arxiv.org/pdf/1911.02150
در معماری Multi-Head Attention، هر head مجموعه منحصر به فردی از بردارهای Q، K و V رو محاسبه میکنه اما در معماری Multi-Query Attention، فقط بردارهای Q برای هر head منحصر به فرده، در حالی که بردارهای Key و Value بین همه head ها به اشتراک گذاشته میشه.
در این حالت با توجه به فرمول قبل اندازه حافظه مورد نیاز به 468MB کاهش پیدا میکنه! اما مقاله زیر نشون میده که این روش مشکلاتی رو در وظایفی مثل خلاصه سازی متون رو میتونه به همراه داشته باشه و معماری Multi-Head Attention در این وظایف بهتر عمل میکنه.
https://arxiv.org/abs/2305.13245
همونطور که میدونید مدل هایی که از معماری transformer استفاده میکنن اغلب به حافظه بیشتری نسبت به مقدار حافظه ای که در یک GPU قرار داره، نیاز دارن بنابراین به نوعی از موازی سازی برای آموزش و استنتاج نیاز داریم! موازی سازی تنسور(Tensor Parallelism) روشی برای موازی سازی مدل های بزرگ تولید متن هست.
به طور خلاصه، موازی سازی تنسور با اختصاص attention head مختلف به GPUهای مختلف کار میکنه.
برای مثال، مدل ۱۷۵ میلیارد پارامتری GPT-3 دارای ۹۶ head هست. میتونیم این مدل رو روی ۸ GPU با اختصاص ۱۲ head به هر کدام موازی کنیم.
هر GPU کل محاسبات attention رو برای head اختصاص داده شده خودش انجام میده، در نهایت همه GPUها نتایج محاسبات خودشون رو مبادله میکنن.
اما در معماری Multi-Query Attention، هر attention head روی مجموعه یکسانی از بردارهای K و V عمل میکنه و این یعنی ما مجموعه یکسانی از بردارهای K و V را روی هر GPU محاسبه و کش میکنیم.
https://arxiv.org/abs/1910.10683
ادامه دارد...
Tensorflow(@CVision)
یکی از روش های رایج که مدل های متن باز ازش استفاده میکنند Grouped-Query Attention و Multi-Query Attention هست که اندازه کش KV رو به طور قابل توجهی کاهش میدن. مدل های متن باز مثل Llama 3.3 70B و Mistral Large 2 از این روش استفاده کردن و اندازه کش KV رو به…
روش دومی که قبلا در موردش صحبت کردیم Grouped-Query Attention هست.
در معماری Multi-Head Attention، تعداد بردارهای K و V منحصر به فرد برابر با تعداد head بود و در معماری Multi-Query Attention، تعداد بردارهای K و V منحصر به فرد برابر با ۱ بود.
در معماری GQA، تعداد بردارهای K و V منحصر به فرد برابر با یک ابرپارامتر G است که تعداد گروهها ست.
به عنوان مثال، اگر تعداد head ۴ باشه و Gیا گروه ها برابر با 2 باشه، دو مجموعه منحصر به فرد از بردارهای K و V وجود خواهد داشت که هر کدام توسط دو head استفاده میشن.
https://arxiv.org/abs/2305.13245
این روش در مقایسه با روش قبلی، بهبود جزئی در عملکرد ارائه میده اما در واقع، هنگام کار در یک محیط چند GPU با موازی سازی تنسور، میتونیم اساسا دستاورد عملکردی رو به صورت رایگان با تنظیم G برابر با تعداد GPUها به دست بیاریم همچنین مشکل کارایی پایین MQA در خلاصه سازی متون رو برطرف میکنه.
در این روش با توجه به مقدار قبل و فرض داشتن 8 گروه مقدار حافظه مورد نیاز در GPT3 برابر با 3.6GB میشه.
ادامه دارد....
در معماری Multi-Head Attention، تعداد بردارهای K و V منحصر به فرد برابر با تعداد head بود و در معماری Multi-Query Attention، تعداد بردارهای K و V منحصر به فرد برابر با ۱ بود.
در معماری GQA، تعداد بردارهای K و V منحصر به فرد برابر با یک ابرپارامتر G است که تعداد گروهها ست.
به عنوان مثال، اگر تعداد head ۴ باشه و Gیا گروه ها برابر با 2 باشه، دو مجموعه منحصر به فرد از بردارهای K و V وجود خواهد داشت که هر کدام توسط دو head استفاده میشن.
https://arxiv.org/abs/2305.13245
این روش در مقایسه با روش قبلی، بهبود جزئی در عملکرد ارائه میده اما در واقع، هنگام کار در یک محیط چند GPU با موازی سازی تنسور، میتونیم اساسا دستاورد عملکردی رو به صورت رایگان با تنظیم G برابر با تعداد GPUها به دست بیاریم همچنین مشکل کارایی پایین MQA در خلاصه سازی متون رو برطرف میکنه.
در این روش با توجه به مقدار قبل و فرض داشتن 8 گروه مقدار حافظه مورد نیاز در GPT3 برابر با 3.6GB میشه.
ادامه دارد....
Tensorflow(@CVision)
روش دومی که قبلا در موردش صحبت کردیم Grouped-Query Attention هست. در معماری Multi-Head Attention، تعداد بردارهای K و V منحصر به فرد برابر با تعداد head بود و در معماری Multi-Query Attention، تعداد بردارهای K و V منحصر به فرد برابر با ۱ بود. در معماری GQA،…
مشکل اصلی روشهایی قبلی اینه که برای کم کردن حجم کش KV، مجبوریم کیفیت مدل رو پایین بیاریم، یعنی یه جورایی معامله میکنیم: حافظه کمتر، کیفیت کمتر در عوض مدل بزرگتر!
اما DeepSeek مدلی رو پیشنهاد میده که حجم کش KV رو کم کنه بدون اینکه کیفیت مدل کم شه.
به عبارت دیگه، تونستن هم حافظه رو کم کنن و هم کیفیت رو حفظ کنن و هم اندازه مدل رو بزرگ کنن که خیلی مهمه!
روش Multi-head latent attention با ترکیب فاکتورگیری رتبه پایین(Low-Rank Factorization
) و بردارهای پنهان، هم حجم حافظه را کاهش میده و هم عملکرد مدل رو حفظ میکنه.
فاکتورگیری رتبه پایین یعنی یه ماتریس بزرگ رو به دو تا ماتریس کوچک تر تبدیل میکنیم. این کار تعداد پارامترها رو کم میکنه. البته، یه سری معایب هم داره مثل اینکه محاسبات بیشتر می شه و ممکنه یه مقدار از اطلاعات ماتریس اصلی رو از دست بدیم.
در واقع، یه جورایی داره حافظه رو با محاسبات "معاوضه" می کنه. این روش برای مواردی که محدودیت اصلی حافظه هست مثل fine-tuning و کاهش کش KV خیلی مفیده.
هدف اینجا هم اینه که تا جایی که ممکنه عملکرد مدل حفظ بشه و در عین حال حجم کش KV هم کم شه.
دلیل موثر بودن این روش، همپوشانی اطلاعات بین attention head های مختلفه. attention head های مختلف به اطلاعات مشابهی نیاز دارن. روشهای دیگه مثل GQA هم از این همپوشانی استفاده می کنن، اما به شکل ناکارآمد.
اونها head هایی که با هم گروه بندی شدن رو مجبور می کنن که به پرسش ها جوابهای مشابهی بدن، که کارآمد نیست. اما روش DeepSeek این مشکل رو نداره و اجازه میده که headهای مختلف از یه اطلاعات یکسان به روشهای خیلی متفاوت استفاده کنن.
اگر علاقه مندید توضیحات جامع تر به همراه نمایش بصری رو در لینک زیر مشاهده کنید:
https://planetbanatt.net/articles/mla.html
اما DeepSeek مدلی رو پیشنهاد میده که حجم کش KV رو کم کنه بدون اینکه کیفیت مدل کم شه.
به عبارت دیگه، تونستن هم حافظه رو کم کنن و هم کیفیت رو حفظ کنن و هم اندازه مدل رو بزرگ کنن که خیلی مهمه!
روش Multi-head latent attention با ترکیب فاکتورگیری رتبه پایین(Low-Rank Factorization
) و بردارهای پنهان، هم حجم حافظه را کاهش میده و هم عملکرد مدل رو حفظ میکنه.
فاکتورگیری رتبه پایین یعنی یه ماتریس بزرگ رو به دو تا ماتریس کوچک تر تبدیل میکنیم. این کار تعداد پارامترها رو کم میکنه. البته، یه سری معایب هم داره مثل اینکه محاسبات بیشتر می شه و ممکنه یه مقدار از اطلاعات ماتریس اصلی رو از دست بدیم.
در واقع، یه جورایی داره حافظه رو با محاسبات "معاوضه" می کنه. این روش برای مواردی که محدودیت اصلی حافظه هست مثل fine-tuning و کاهش کش KV خیلی مفیده.
هدف اینجا هم اینه که تا جایی که ممکنه عملکرد مدل حفظ بشه و در عین حال حجم کش KV هم کم شه.
دلیل موثر بودن این روش، همپوشانی اطلاعات بین attention head های مختلفه. attention head های مختلف به اطلاعات مشابهی نیاز دارن. روشهای دیگه مثل GQA هم از این همپوشانی استفاده می کنن، اما به شکل ناکارآمد.
اونها head هایی که با هم گروه بندی شدن رو مجبور می کنن که به پرسش ها جوابهای مشابهی بدن، که کارآمد نیست. اما روش DeepSeek این مشکل رو نداره و اجازه میده که headهای مختلف از یه اطلاعات یکسان به روشهای خیلی متفاوت استفاده کنن.
اگر علاقه مندید توضیحات جامع تر به همراه نمایش بصری رو در لینک زیر مشاهده کنید:
https://planetbanatt.net/articles/mla.html
planetbanatt.net
On MLA
OAI
نسخهی o3-Mini را منتشر کرد و با این اقدام هوش مصنوعی با استدلال هوشمندتر، سریعتر و ارزانتر را در اختیار کاربران قرار میدهد.
همه کاربران میتوانند از طریق دکمهی جدید «Reason» از آن استفاده کنند
https://openai.com/index/openai-o3-mini
نسخهی o3-Mini را منتشر کرد و با این اقدام هوش مصنوعی با استدلال هوشمندتر، سریعتر و ارزانتر را در اختیار کاربران قرار میدهد.
همه کاربران میتوانند از طریق دکمهی جدید «Reason» از آن استفاده کنند
https://openai.com/index/openai-o3-mini
Forwarded from کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
با کلیک بر روی این لینک و کپی کردن کد تخفیف زیر از 50 درصد تخفیف دوره opencv در مکتب خونه استفاده کنید:
COUPON-0d542
مکتبخونه
آموزش پردازش تصویر و بینایی ماشین با OpenCV
دوره آموزش پردازش تصویر و بینایی ماشین با opencv برای ایجاد یک پایه قوی در بینایی کامپیوتر طراحی شده است. در این دوره شما درک کاملی از تقریبا تمام ابزارهای OpenCV برای پردازش تصویر، بینایی کامپیوتری، پردازش ویدئو و اصول اولیه هوش مصنوعی خواهید داشت.
Forwarded from کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
📢 اطلاعیه مهم
دوستان و همراهان عزیز، سلام 🌹
به اطلاع میرسانیم به دلیل یکسانسازی قیمت دورههای مشترک در پلتفرمهای آموزشی مختلف (نظیر مکتب خونه) و همچنین تغییرات قیمت در بازار، ناگزیر به افزایش 30 درصدی قیمت برخی از دورهها روی سایت کلاس ویژن شدهایم.
🎁 خبر خوب:
برای اینکه شما عزیزان بتوانید با همان قیمتهای قبلی از دورهها استفاده کنید، تا تاریخ 25 بهمن ماه، تخفیف ویژهای در نظر گرفتهایم و میتوانید دورهها را با قیمت قبلی از سایت کلاس ویژن تهیه نمایید. موقتا قیمت قبلی در قالب تخفیف فرصت ویژه روی دوره ها اعمال شده است.
⏰ فرصت محدود است!
پیشنهاد میکنیم اگر قصد تهیه دورهها را دارید، از این فرصت استثنایی استفاده کنید.
با تشکر از همراهی شما
#کلاس_ویژن
دوستان و همراهان عزیز، سلام 🌹
به اطلاع میرسانیم به دلیل یکسانسازی قیمت دورههای مشترک در پلتفرمهای آموزشی مختلف (نظیر مکتب خونه) و همچنین تغییرات قیمت در بازار، ناگزیر به افزایش 30 درصدی قیمت برخی از دورهها روی سایت کلاس ویژن شدهایم.
🎁 خبر خوب:
برای اینکه شما عزیزان بتوانید با همان قیمتهای قبلی از دورهها استفاده کنید، تا تاریخ 25 بهمن ماه، تخفیف ویژهای در نظر گرفتهایم و میتوانید دورهها را با قیمت قبلی از سایت کلاس ویژن تهیه نمایید. موقتا قیمت قبلی در قالب تخفیف فرصت ویژه روی دوره ها اعمال شده است.
⏰ فرصت محدود است!
پیشنهاد میکنیم اگر قصد تهیه دورهها را دارید، از این فرصت استثنایی استفاده کنید.
با تشکر از همراهی شما
#کلاس_ویژن
اوپن ای آی deep research را معرفی کرد. این حالت به کاربران این امکان رو میده تا "تحقیقات چند مرحلهای در اینترنت برای وظایف پیچیده" انجام بدن.
این گامی دیگر به سوی تحقق وعده صنعت هوش مصنوعی ست که AI Agents به زودی قادر به انجام وظایف انسانی به طور قابل اعتماد، کارآمد و مستقل خواهند بود. این ویژگی برای افرادی که کارهای دانشمحور فشرده در زمینههایی مانند مالی، علم، سیاست و مهندسی انجام میدهند و به تحقیقات کامل، دقیق و قابل اعتماد نیاز دارند، ساخته شده.
حالت Deep research، یک مقاله تحقیقاتی جامع و کاملا مستند به کاربر ارائه میده، چیزی که اساسا یک تحلیلگر یا یک متخصص در یک زمینه ممکن است برای شما تهیه کنه.
https://openai.com/index/introducing-deep-research/
این گامی دیگر به سوی تحقق وعده صنعت هوش مصنوعی ست که AI Agents به زودی قادر به انجام وظایف انسانی به طور قابل اعتماد، کارآمد و مستقل خواهند بود. این ویژگی برای افرادی که کارهای دانشمحور فشرده در زمینههایی مانند مالی، علم، سیاست و مهندسی انجام میدهند و به تحقیقات کامل، دقیق و قابل اعتماد نیاز دارند، ساخته شده.
حالت Deep research، یک مقاله تحقیقاتی جامع و کاملا مستند به کاربر ارائه میده، چیزی که اساسا یک تحلیلگر یا یک متخصص در یک زمینه ممکن است برای شما تهیه کنه.
https://openai.com/index/introducing-deep-research/
Openai
Introducing deep research
An agent that uses reasoning to synthesize large amounts of online information and complete multi-step research tasks for you. Available to Pro users today, Plus and Team next.
Tensorflow(@CVision)
اوپن ای آی deep research را معرفی کرد. این حالت به کاربران این امکان رو میده تا "تحقیقات چند مرحلهای در اینترنت برای وظایف پیچیده" انجام بدن. این گامی دیگر به سوی تحقق وعده صنعت هوش مصنوعی ست که AI Agents به زودی قادر به انجام وظایف انسانی به طور قابل…
یک نکتهی بسیار برجسته در Deep Research، تفاوت چشمگیر بین زمان صرف شده برای انجام کار در مقایسه با انسان بود. طبق تخمینهای برخی از کارکنان OpenAI، به نظر میرسه که این تفاوت در حال حاضر تقریبا ۱۵ برابره. اهمیت این موضوع از اونجاست که به پرسشی بزرگ در مورد خودکارسازی وظایف شناختی پاسخ میده و اون سوال اینه که چه زمانی هزینهی انجام کار توسط هوش مصنوعی برابر یا ارزان تر از پرداخت به انسان خواهد بود؟
چند ماه پیش که نتایج o3 منتشر شد هنگامی که به هزینههای اجرای o3 روی ARC AGI نگاه می کردیم، به نظر میرسید که هنوز چندین مرتبه از این نقطه فاصله داریم، اما به نظر Deep Research داره نشون میده که ما بسیار نزدیک تر از آنچه ابتدا به نظر میرسید، هستیم. این حالت به زودی برای کاربران حرفهای با ۱۰۰ پرسش در ماه در دسترس خواهد بود، بنابراین در حال حاضر ما با حدود ۲ دلار برای چندین ساعت کار روبرو هستیم، که از همین حالا یک مرتبه ارزانتر از انسان، در این مورد خاصه.
اگر مدلهای اپراتور پیشرفته تری رو تصور کنیم که بتونن تمام وظایف یک شغل اداری با مهارت پایینتر رو انجام بدن، اما ۳ هفته کار رو در یک روز کاری کامل کنند، تصور اینکه چگونه هزینه نیروی کار به سرعت نزدیک به صفر بشه، دور از ذهن نیست
چند ماه پیش که نتایج o3 منتشر شد هنگامی که به هزینههای اجرای o3 روی ARC AGI نگاه می کردیم، به نظر میرسید که هنوز چندین مرتبه از این نقطه فاصله داریم، اما به نظر Deep Research داره نشون میده که ما بسیار نزدیک تر از آنچه ابتدا به نظر میرسید، هستیم. این حالت به زودی برای کاربران حرفهای با ۱۰۰ پرسش در ماه در دسترس خواهد بود، بنابراین در حال حاضر ما با حدود ۲ دلار برای چندین ساعت کار روبرو هستیم، که از همین حالا یک مرتبه ارزانتر از انسان، در این مورد خاصه.
اگر مدلهای اپراتور پیشرفته تری رو تصور کنیم که بتونن تمام وظایف یک شغل اداری با مهارت پایینتر رو انجام بدن، اما ۳ هفته کار رو در یک روز کاری کامل کنند، تصور اینکه چگونه هزینه نیروی کار به سرعت نزدیک به صفر بشه، دور از ذهن نیست
This media is not supported in your browser
VIEW IN TELEGRAM
محققان چینی مدل OmniHuman را منتشر کردند.
این مدل میتواند ویدیوهای واقعگرایانه از انسانها را در هر نسبت ابعاد و اندازهی بدن، تنها با استفاده از یک تصویر و صدا ایجاد کند.
این مدل بهطور چشمگیری مدیریت حرکات و ژستها را بهبود میبخشد، که چالشی برای روشهای موجود محسوب میشود، و نتایج بسیار واقعگرایانهای تولید میکند.
https://omnihuman-lab.github.io/
این مدل میتواند ویدیوهای واقعگرایانه از انسانها را در هر نسبت ابعاد و اندازهی بدن، تنها با استفاده از یک تصویر و صدا ایجاد کند.
این مدل بهطور چشمگیری مدیریت حرکات و ژستها را بهبود میبخشد، که چالشی برای روشهای موجود محسوب میشود، و نتایج بسیار واقعگرایانهای تولید میکند.
https://omnihuman-lab.github.io/
Tensorflow(@CVision)
اوپن ای آی deep research را معرفی کرد. این حالت به کاربران این امکان رو میده تا "تحقیقات چند مرحلهای در اینترنت برای وظایف پیچیده" انجام بدن. این گامی دیگر به سوی تحقق وعده صنعت هوش مصنوعی ست که AI Agents به زودی قادر به انجام وظایف انسانی به طور قابل…
۲۴ ساعت بعد، نسخه متن باز Deep Research توسط hugging face منتشر شد.
DeepResearch
از دو بخش اصلی تشکیل شده است:
یک مدل زبانی بزرگ: این مدل میتونه از لیست مدلهای زبانی بزرگی که توسط OpenAI ارائه میشه (مثل 4o، o1، o3 و غیره) انتخاب شه. به عبارتی، هسته اصلی DeepResearch یک LLM هست که وظیفهی پردازش زبان طبیعی و تولید متن رو بر عهده داره.
دوم "Agentic Framework" : این فریمورک، مدل زبانی رو در استفاده از ابزارهایی مانند جستجوی وب و سازماندهی اقدامات خودش به صورت گام به گام راهنمایی میکنه. این بخش، DeepResearch رو قادر میسازه تا به طور هوشمندانه تر و مؤثرتر عمل کنه. به جای اینکه فقط به مدل زبانی برای تولید متن تکیه کنه، این فریم ورک بهش کمک میکنه تا با دنیای خارج تعامل داشته باشه (از طریق جستجوی وب) و وظایف پیچیده رو به مراحل کوچکتر و قابل مدیریت تقسیم کنه
نکته قابل توجه عملکرد نسخه متن باز با کسب امتیاز 54% در مجموعه داده مشابه، در مقایسه با امتیاز 67% مدل اصلی توسط OpenAI هست.
https://huggingface.co/blog/open-deep-research
DeepResearch
از دو بخش اصلی تشکیل شده است:
یک مدل زبانی بزرگ: این مدل میتونه از لیست مدلهای زبانی بزرگی که توسط OpenAI ارائه میشه (مثل 4o، o1، o3 و غیره) انتخاب شه. به عبارتی، هسته اصلی DeepResearch یک LLM هست که وظیفهی پردازش زبان طبیعی و تولید متن رو بر عهده داره.
دوم "Agentic Framework" : این فریمورک، مدل زبانی رو در استفاده از ابزارهایی مانند جستجوی وب و سازماندهی اقدامات خودش به صورت گام به گام راهنمایی میکنه. این بخش، DeepResearch رو قادر میسازه تا به طور هوشمندانه تر و مؤثرتر عمل کنه. به جای اینکه فقط به مدل زبانی برای تولید متن تکیه کنه، این فریم ورک بهش کمک میکنه تا با دنیای خارج تعامل داشته باشه (از طریق جستجوی وب) و وظایف پیچیده رو به مراحل کوچکتر و قابل مدیریت تقسیم کنه
نکته قابل توجه عملکرد نسخه متن باز با کسب امتیاز 54% در مجموعه داده مشابه، در مقایسه با امتیاز 67% مدل اصلی توسط OpenAI هست.
https://huggingface.co/blog/open-deep-research
huggingface.co
Open-source DeepResearch – Freeing our search agents
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
دیپ سیک یک مدل ۱۶ میلیارد پارامتری MOE با نام DeepSeek-VL2 Small برای وظایف مختلف تولید متن منتشر کرد.
دموی مدل در huggingface :
https://huggingface.co/spaces/deepseek-ai/deepseek-vl2-small
دموی مدل در huggingface :
https://huggingface.co/spaces/deepseek-ai/deepseek-vl2-small
huggingface.co
Chat with DeepSeek-VL2-small - a Hugging Face Space by deepseek-ai
This application allows users to input text and images to generate detailed responses. Users can upload one or more images and provide a text prompt, and the application will generate a correspondi...
This media is not supported in your browser
VIEW IN TELEGRAM
مدل ترجمه همزمان گفتار به گفتار Hibiki، صحبتهای شما رو از فرانسه به انگلیسی به صورت زنده ترجمه میکنه.
این مدل نه تنها متن ترجمه شده رو نشون میده، بلکه اون رو با صدای خودتون و با همان سرعت و لحن بیان میکنه.
Hibiki
در مقایسه با سیستم های مشابه قبلی، ترجمه های دقیق تر، طبیعی تر و با صدای شبیه تر به صدای شما ارائه میده و تقریبا به خوبی یک مترجم انسانی عمل میکنه.
مقاله :
https://arxiv.org/abs/2502.03382
کد:
https://github.com/kyutai-labs/hibiki
این مدل نه تنها متن ترجمه شده رو نشون میده، بلکه اون رو با صدای خودتون و با همان سرعت و لحن بیان میکنه.
Hibiki
در مقایسه با سیستم های مشابه قبلی، ترجمه های دقیق تر، طبیعی تر و با صدای شبیه تر به صدای شما ارائه میده و تقریبا به خوبی یک مترجم انسانی عمل میکنه.
مقاله :
https://arxiv.org/abs/2502.03382
کد:
https://github.com/kyutai-labs/hibiki
Tensorflow(@CVision)
مشکل اصلی روشهایی قبلی اینه که برای کم کردن حجم کش KV، مجبوریم کیفیت مدل رو پایین بیاریم، یعنی یه جورایی معامله میکنیم: حافظه کمتر، کیفیت کمتر در عوض مدل بزرگتر! اما DeepSeek مدلی رو پیشنهاد میده که حجم کش KV رو کم کنه بدون اینکه کیفیت مدل کم شه. به عبارت…
بحث قبلی رو امشب ادامه بدیم.
دیشب لکس فریدمن یه گفتگو در مورد روش آموزش Deepseek داشت و نکات جالبی رد بدل شد که به صورت خلاصه بخش های مهمش رو مینویسم، علاقه مند بودید میتونید این گفتگو رو توی لینک زیر دنبال کنید.
موضوع بحث بیشتر در مورد این بود که چطور این شرکت تونسته با وجود محدودیت در منابع سختافزاری، مدلهای زبانی بزرگ و قدرتمندی رو آموزش بده.
خوب تیم DeepSeek برای این کار، از چند تا ترفند و نوآوری جالب استفاده کردن.
این تیم با استفاده از ترکیبی از نوآوریها مثل MoE با پراکندگی بالا و Auxiliary Loss و بهینه سازیهای سطح پایین مثل کتابخانه NCCL اختصاصی و دستورالعملهایPTX، نشون دادن که حتی با منابع محدود هم میشه مدلهای زبانی بزرگ و قدرتمندی رو آموزش داد.
این موضوع نشون میده که همیشه لازم نیست بهترین و گرون ترین سخت افزار رو داشته باشیم، بلکه با خلاقیت میشه کارهای بزرگی انجام داد.
https://www.youtube.com/watch?v=aAfanTeRn84
ادامه دارد...
دیشب لکس فریدمن یه گفتگو در مورد روش آموزش Deepseek داشت و نکات جالبی رد بدل شد که به صورت خلاصه بخش های مهمش رو مینویسم، علاقه مند بودید میتونید این گفتگو رو توی لینک زیر دنبال کنید.
موضوع بحث بیشتر در مورد این بود که چطور این شرکت تونسته با وجود محدودیت در منابع سختافزاری، مدلهای زبانی بزرگ و قدرتمندی رو آموزش بده.
خوب تیم DeepSeek برای این کار، از چند تا ترفند و نوآوری جالب استفاده کردن.
این تیم با استفاده از ترکیبی از نوآوریها مثل MoE با پراکندگی بالا و Auxiliary Loss و بهینه سازیهای سطح پایین مثل کتابخانه NCCL اختصاصی و دستورالعملهایPTX، نشون دادن که حتی با منابع محدود هم میشه مدلهای زبانی بزرگ و قدرتمندی رو آموزش داد.
این موضوع نشون میده که همیشه لازم نیست بهترین و گرون ترین سخت افزار رو داشته باشیم، بلکه با خلاقیت میشه کارهای بزرگی انجام داد.
https://www.youtube.com/watch?v=aAfanTeRn84
ادامه دارد...
YouTube
DeepSeek's GPU optimization tricks | Lex Fridman Podcast
Lex Fridman Podcast full episode: https://www.youtube.com/watch?v=_1f-o0nqpEI
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/cv8472-sb
See below for guest bio, links, and to give feedback, submit questions, contact Lex,…
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/cv8472-sb
See below for guest bio, links, and to give feedback, submit questions, contact Lex,…
Tensorflow(@CVision)
بحث قبلی رو امشب ادامه بدیم. دیشب لکس فریدمن یه گفتگو در مورد روش آموزش Deepseek داشت و نکات جالبی رد بدل شد که به صورت خلاصه بخش های مهمش رو مینویسم، علاقه مند بودید میتونید این گفتگو رو توی لینک زیر دنبال کنید. موضوع بحث بیشتر در مورد این بود که چطور این…
اول معماری Mixture of Experts (MoE) با پراکندگی (Sparsity) بالا:
یادآوری MoE: مثل اینه که یک تیم بزرگ از خبرگان داشته باشیم. هر کدوم از این خبرگان در یک زمینه خاص مهارت دارن.
وقتی یک سوال یا وظیفه جدید به این تیم داده می شه، فقط چند تا از متخصص هایی که بیشترین ارتباط رو با اون سوال دارن، فعال می شن و بقیه در حالت استراحت باقی می مونن.
این کار باعث می شه که بتونیم مدل های خیلی بزرگ و پیچیدهای رو بسازیم، بدون اینکه نیاز باشه همه ی بخشهای مدل همیشه فعال باشن.
بلاگ زیر به صورت فنی-بصری ترکیب خبرگان در مدل های زبانی رو به تفضیل و به بهترین شکل ممکن توضیح میده:
https://newsletter.maartengrootendorst.com/p/a-visual-guide-to-mixture-of-experts
حالا سوال اینجاست که نوآوری DeepSeek کجاست و چیکار کرده، چون گوگل چند سال پیش در حال توسعه مجموعه ای از مدل ها بود، که با Switch Transformer در سال ۲۰۲۱ شروع شد.
در واقع تیم DeepSeek اومدن تعداد خبرگان رو خیلی زیاد کردن (۲۵۶ تا)، اما در عین حال، تعداد خبرگانی که برای هر وظیفه فعال می شن رو خیلی کم نگه داشتن (فقط ۸ تا).
به این میگن "پراکندگی بالا High Sparsity" یعنی از بین اون همه متخصص، فقط تعداد خیلی کمی فعال میشن.
این خیلی با مدل های دیگه فرق داره، در مدلهای دیگه، معمولاً از بین ۸ تا متخصص، ۲ تاشون فعال میشن اگه اشتباه نکنم توی مدل متن باز mixtral 8x7b این کار انجام شد اماDeepSeek اومده این نسبت رو خیلی تغییر داده.
اما چرا این کار رو کردن؟ خوب این کار چند تا فایده داره:
✅ اول این کار باعث افزایش ظرفیت مدل میشه. با داشتن تعداد خیلی زیاد متخصص، مدل میتونه اطلاعات و دانش خیلی بیشتری رو در خودش ذخیره کنه.
✅ مزیت دوم کاهش محاسبات هست، چون فقط تعداد کمی از خبرگان فعال میشن، حجم محاسباتی که برای هر وظیفه انجام میشه، خیلی کمتره. این به DeepSeek کمک میکنه که بتونه با سخت افزار محدودتر، مدل های بزرگتری رو آموزش بده.
ادامه دارد...
یادآوری MoE: مثل اینه که یک تیم بزرگ از خبرگان داشته باشیم. هر کدوم از این خبرگان در یک زمینه خاص مهارت دارن.
وقتی یک سوال یا وظیفه جدید به این تیم داده می شه، فقط چند تا از متخصص هایی که بیشترین ارتباط رو با اون سوال دارن، فعال می شن و بقیه در حالت استراحت باقی می مونن.
این کار باعث می شه که بتونیم مدل های خیلی بزرگ و پیچیدهای رو بسازیم، بدون اینکه نیاز باشه همه ی بخشهای مدل همیشه فعال باشن.
بلاگ زیر به صورت فنی-بصری ترکیب خبرگان در مدل های زبانی رو به تفضیل و به بهترین شکل ممکن توضیح میده:
https://newsletter.maartengrootendorst.com/p/a-visual-guide-to-mixture-of-experts
حالا سوال اینجاست که نوآوری DeepSeek کجاست و چیکار کرده، چون گوگل چند سال پیش در حال توسعه مجموعه ای از مدل ها بود، که با Switch Transformer در سال ۲۰۲۱ شروع شد.
در واقع تیم DeepSeek اومدن تعداد خبرگان رو خیلی زیاد کردن (۲۵۶ تا)، اما در عین حال، تعداد خبرگانی که برای هر وظیفه فعال می شن رو خیلی کم نگه داشتن (فقط ۸ تا).
به این میگن "پراکندگی بالا High Sparsity" یعنی از بین اون همه متخصص، فقط تعداد خیلی کمی فعال میشن.
این خیلی با مدل های دیگه فرق داره، در مدلهای دیگه، معمولاً از بین ۸ تا متخصص، ۲ تاشون فعال میشن اگه اشتباه نکنم توی مدل متن باز mixtral 8x7b این کار انجام شد اماDeepSeek اومده این نسبت رو خیلی تغییر داده.
اما چرا این کار رو کردن؟ خوب این کار چند تا فایده داره:
✅ اول این کار باعث افزایش ظرفیت مدل میشه. با داشتن تعداد خیلی زیاد متخصص، مدل میتونه اطلاعات و دانش خیلی بیشتری رو در خودش ذخیره کنه.
✅ مزیت دوم کاهش محاسبات هست، چون فقط تعداد کمی از خبرگان فعال میشن، حجم محاسباتی که برای هر وظیفه انجام میشه، خیلی کمتره. این به DeepSeek کمک میکنه که بتونه با سخت افزار محدودتر، مدل های بزرگتری رو آموزش بده.
ادامه دارد...
Maartengrootendorst
A Visual Guide to Mixture of Experts (MoE)
Demystifying the role of MoE in Large Language Models
Tensorflow(@CVision)
اول معماری Mixture of Experts (MoE) با پراکندگی (Sparsity) بالا: یادآوری MoE: مثل اینه که یک تیم بزرگ از خبرگان داشته باشیم. هر کدوم از این خبرگان در یک زمینه خاص مهارت دارن. وقتی یک سوال یا وظیفه جدید به این تیم داده می شه، فقط چند تا از متخصص هایی که…
بخش دوم به چالش پراکندگی بالا و راهحلAuxiliary Loss اختصاص داره:
مشکل پراکندگی بالا: خب، هر چیزی یک خوبی هایی داره و یک بدی هایی. خوبی پراکندگی بالا رو گفتیم. اما مشکلش چیه؟ مشکل اینه که وقتی فقط تعداد کمی از خبرگان برای هر وظیفه فعال می شن، ممکنه بعضی از خبرگان اصلا فرصت یادگیری پیدا نکنن.
یعنی همیشه در حالت استراحت بمونن و هیچ وقت فعال نشن. این باعث میشه که توانایی مدل به صورت چشمگیری کاهش پیدا کنه، چون ازهمه ظرفیتش استفاده نمی شه.
راه حل معرفی Auxiliary Loss هست:
جریمه برای چی؟ این جریمه برای اینه که اگه بعضی از خبرگان برای مدت طولانی فعال نشن، مدل جریمه می شه. این جریمه باعث می شه که مدل مجبور شه همه ی خبرگان رو در طول آموزش فعال کنه و از همه شون استفاده کنه.نتیجه این کار باعث میشه که همه ی خبرگان به خوبی آموزش ببینن و مدل قوی تر بشه.(در قالب پارامتر گاما)
و بخش سوم به بهینه سازیهای سطح پایین اختصاص داره:
DeepSeek
فقط به MoE و Auxiliary Loss اکتفا نکرده. اونها رفتن سراغ بهینه سازی های خیلی سطح پایین تر!
✅اول استفاده از کتابخانه ارتباطی NCCL اختصاصی هست.
اول اومدن نسخه اختصاصی خودشون از کتابخانه ارتباطی NCCL انویدیا رو پیادهسازی کردن.این کتابخانه مسئول ارتباط بین GPUهاست. وقتی GPUها بخوان با هم اطلاعات رد و بدل کنن، از این کتابخانه استفاده میکنن DeepSeek با ساختن نسخه اختصاصی خودش، تونسته این ارتباط رو خیلی بهینه تر کنه.
✅دوم استفاده از دستورالعملهای PTX:
این تیم از دستورالعملهای PTX (Parallel Thread Execution) که یک زبان میانی بین کد CUDA و سختافزار GPU هست، برای مدیریت نحوه زمانبندی SMها (Streaming Multiprocessors) در GPU استفاده کردن. این کار به اونها اجازه داد تا کنترل دقیقتری بر روی نحوه اجرای محاسبات در GPU داشته باشند و عملکرد رو بهبود ببخشن.
این بهینهسازیهای سطح پایین باعث شدن که مدلهای DeepSeek بتونن با سختافزار محدودشون، عملکرد خیلی بالایی داشته باشن. یعنی با اینکه GPUهای کمتری نسبت به رقبای خودشون داشتن، تونستن نتایج خیلی خوبی بگیرن.
مشکل پراکندگی بالا: خب، هر چیزی یک خوبی هایی داره و یک بدی هایی. خوبی پراکندگی بالا رو گفتیم. اما مشکلش چیه؟ مشکل اینه که وقتی فقط تعداد کمی از خبرگان برای هر وظیفه فعال می شن، ممکنه بعضی از خبرگان اصلا فرصت یادگیری پیدا نکنن.
یعنی همیشه در حالت استراحت بمونن و هیچ وقت فعال نشن. این باعث میشه که توانایی مدل به صورت چشمگیری کاهش پیدا کنه، چون ازهمه ظرفیتش استفاده نمی شه.
راه حل معرفی Auxiliary Loss هست:
جریمه برای چی؟ این جریمه برای اینه که اگه بعضی از خبرگان برای مدت طولانی فعال نشن، مدل جریمه می شه. این جریمه باعث می شه که مدل مجبور شه همه ی خبرگان رو در طول آموزش فعال کنه و از همه شون استفاده کنه.نتیجه این کار باعث میشه که همه ی خبرگان به خوبی آموزش ببینن و مدل قوی تر بشه.(در قالب پارامتر گاما)
و بخش سوم به بهینه سازیهای سطح پایین اختصاص داره:
DeepSeek
فقط به MoE و Auxiliary Loss اکتفا نکرده. اونها رفتن سراغ بهینه سازی های خیلی سطح پایین تر!
✅اول استفاده از کتابخانه ارتباطی NCCL اختصاصی هست.
اول اومدن نسخه اختصاصی خودشون از کتابخانه ارتباطی NCCL انویدیا رو پیادهسازی کردن.این کتابخانه مسئول ارتباط بین GPUهاست. وقتی GPUها بخوان با هم اطلاعات رد و بدل کنن، از این کتابخانه استفاده میکنن DeepSeek با ساختن نسخه اختصاصی خودش، تونسته این ارتباط رو خیلی بهینه تر کنه.
✅دوم استفاده از دستورالعملهای PTX:
این تیم از دستورالعملهای PTX (Parallel Thread Execution) که یک زبان میانی بین کد CUDA و سختافزار GPU هست، برای مدیریت نحوه زمانبندی SMها (Streaming Multiprocessors) در GPU استفاده کردن. این کار به اونها اجازه داد تا کنترل دقیقتری بر روی نحوه اجرای محاسبات در GPU داشته باشند و عملکرد رو بهبود ببخشن.
این بهینهسازیهای سطح پایین باعث شدن که مدلهای DeepSeek بتونن با سختافزار محدودشون، عملکرد خیلی بالایی داشته باشن. یعنی با اینکه GPUهای کمتری نسبت به رقبای خودشون داشتن، تونستن نتایج خیلی خوبی بگیرن.
این مقاله که توسط محققین استفورد با بودجه ۶ دلار آموزش داده شده یک روش ساده Test-Time Scaling رو معرفی میکنه که به مدلهای زبانی کمک میکنه هنگام آزمایش (Test) استدلال بهتری داشته باشن. محققان یک تکنیک ساده برای این کار معرفی کردن که Budget Forcing نام داره. این تکنیک در واقع مشخص میکنه مدل قبل از ارائه پاسخ، چقدر محاسبات انجام بده.
شاید اولین بار مدل o1 بود که نشون داد که میشه بدون تغییر مدل، فقط با افزایش میزان محاسبات در زمان آزمایش (Test)، دقت و توانایی استدلال مدل رو بالا برد اما خوب جزییات زیادی از روش آموزش این مدل منتشر نشد.
در حالت عادی، یک مدل ممکنه خیلی زود تصمیم بگیره که پاسخ نهایی رو ارائه بده، حتی اگر بتونه با تفکر بیشتر، پاسخ بهتری پیدا کنه. برای حل این مشکل، توی این مقاله از تکنیک بسیار ساده ای به نام Budget Forcing استفاده میشه که مدل رو مجبور میکنه بیشتر فکر کنه. در این روش، اگر مدل خیلی زود تصمیم به توقف بگیره، بهجای توقف، بهطور خودکار یک کلمه ی "Wait" به خروجی خود اضافه میکنه. این کار باعث میشه مدل فرایند استدلال خودش رو ادامه بده و در نتیجه دقت پاسخها افزایش پیدا کنه.
برخلاف مدلهای رایج که روی مجموعه دادههای بسیار بزرگ آموزش می بینن، محققان در این پژوهش از یک مدل با ۳۲ میلیارد پارامتر استفاده کردن که فقط با ۱۰۰۰ نمونهی خاص از مسائل استدلالی آموزش دیده اما با این حال، مدل تونسته در برخی آزمایشها عملکردی بهتر از مدل o1-preview داشته باشه.
وقتی مدل مجبور شد زمان بیشتری برای فکر کردن صرف کنه، تونست مسائل پیچیدهتر ریاضی و علمی رو با دقت بیشتری حل کنه. این موضوع نشون میده که بسیاری از مدلهای زبانی فعلی میتونن با همین سختافزار و معماری، اما با روشهای بهینهسازی مثل Test-Time Scaling، عملکرد بهتری داشته باشن.
https://arxiv.org/abs/2501.19393
شاید اولین بار مدل o1 بود که نشون داد که میشه بدون تغییر مدل، فقط با افزایش میزان محاسبات در زمان آزمایش (Test)، دقت و توانایی استدلال مدل رو بالا برد اما خوب جزییات زیادی از روش آموزش این مدل منتشر نشد.
در حالت عادی، یک مدل ممکنه خیلی زود تصمیم بگیره که پاسخ نهایی رو ارائه بده، حتی اگر بتونه با تفکر بیشتر، پاسخ بهتری پیدا کنه. برای حل این مشکل، توی این مقاله از تکنیک بسیار ساده ای به نام Budget Forcing استفاده میشه که مدل رو مجبور میکنه بیشتر فکر کنه. در این روش، اگر مدل خیلی زود تصمیم به توقف بگیره، بهجای توقف، بهطور خودکار یک کلمه ی "Wait" به خروجی خود اضافه میکنه. این کار باعث میشه مدل فرایند استدلال خودش رو ادامه بده و در نتیجه دقت پاسخها افزایش پیدا کنه.
برخلاف مدلهای رایج که روی مجموعه دادههای بسیار بزرگ آموزش می بینن، محققان در این پژوهش از یک مدل با ۳۲ میلیارد پارامتر استفاده کردن که فقط با ۱۰۰۰ نمونهی خاص از مسائل استدلالی آموزش دیده اما با این حال، مدل تونسته در برخی آزمایشها عملکردی بهتر از مدل o1-preview داشته باشه.
وقتی مدل مجبور شد زمان بیشتری برای فکر کردن صرف کنه، تونست مسائل پیچیدهتر ریاضی و علمی رو با دقت بیشتری حل کنه. این موضوع نشون میده که بسیاری از مدلهای زبانی فعلی میتونن با همین سختافزار و معماری، اما با روشهای بهینهسازی مثل Test-Time Scaling، عملکرد بهتری داشته باشن.
https://arxiv.org/abs/2501.19393
arXiv.org
s1: Simple test-time scaling
Test-time scaling is a promising new approach to language modeling that uses extra test-time compute to improve performance. Recently, OpenAI's o1 model showed this capability but did not publicly...
Forwarded from Ai Events️ (حمید محمودآبادی)
ارائهی دکتر مهدیه سلیمانی (استاد گروه هوش مصنوعی دانشگاه شریف) در مورد مقاله DeepSeek R1 و تفاوت رویکرد آن در استفاده از RL برای جستجو
مشاهده در یوتیوب
مشاهده در آپارات
@Ai_Events
مشاهده در یوتیوب
مشاهده در آپارات
@Ai_Events