Forwarded from Ali's Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
adversarial-ml-tutorial.org
Adversarial Robustness - Theory and Practice
This web page contains materials to accompany the NeurIPS 2018 tutorial, "Adversarial Robustness: Theory and Practice", by Zico Kolter and Aleksander Madry. The notes are in **very early draft form**, and we will be updating them (organizing material more…
❤2🔥1
هفته کتاب و کتابخوانی به کتاب خوان های کانال تبریک میگم
یک کتاب به من هدیه بدید
یک کتاب به من هدیه بدید
❤24
This media is not supported in your browser
VIEW IN TELEGRAM
تعریف KNN در یادگیری ماشین چیه؟!
#الگوریتمها #یادگیری_ماشین #lمنابع
💢 مطالب بیشتر ⬇️ ⬇️
🎙 @AI_DeepMind
🎙 @AI_Person
#الگوریتمها #یادگیری_ماشین #lمنابع
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤4👍2👌1
این مقاله یه چارچوب جدید مدل های زبانی خود بازگشتی پیوسته (CALM) رو ارائه میده که با تغییر از پیشبینی گسسته توکن به پیشبینی بردارهای پیوسته، کارایی مدلهای زبانی بزرگ رو بهتر میکنه. تو رویکرد عادی، مدلها یکی یکی و با پیشبینی هر توکن عمل میکنن که فرایندی کند و محاسباتی سنگین داره. CALM با فشردهسازی هر K توکن (مثلا ۴ کلمه) به یه بردار پیوسته، تعداد مراحل تولید رو K برابر کمتر میکنه و هزینه محاسباتی رو به شدت میاره پایین.
برای این کار، اول یه Autoencoder قوی و مقاوم آموزش داده میشه که بتونه با دقت بالایی توکن هارو از روی بردار بازسازی بکنه. این اتو انکودر با تکنیکهایی مثل dropout و جلوگیری از فروپاشی پسین یا همون Posterior Collapse ، یه فضای مخفی منظم و مقاوم درس میکنه که برای مدلسازی تولیدی مناسبه. بعد مدل زبانی به جای پیشبینی توکن، بردار بعدی را پیشبینی میکنه اما چون دیگه احتمال صریح وجود نداره، یه چارچوب «Likelihood-Free Framework » توسعه داده میشه.
تو این چارچوب، از تابع خطای انرژی برای آموزش مدل استفاده میشه که فقط به نمونه برداری نیاز داره و مستقل از توزیع احتماله. برای ارزیابی مدل ها، معیار جدید BrierLM معرفی میشه که مبتنی بر امتیاز بریره و بدون نیاز به محاسبه احتمال، کیفیت مدلو ارزیابی میکنه. این معیار با معیار سنتی Perplexity همخوانی بالایی داره و برای مقایسه درست بین مدلهای مختلف مناسبه. همچنین، یه الگوریتم جدید برای نمونهبرداری با دما (temperature sampling) ارایه میشه که میتونه بدون دسترسی به احتمالات، دقیقا همون رفتار کنترل شده رو تولید رو شبیهسازی بکنه.
آزمایش ها نشون میده که CALM با K=4 عملکرد خیلی نزدیک به مدلهای پایه بزرگ داره، اما (((با هزینه محاسباتی خیلی کمتر))). این پیپر نشون میده که افزایش «ظرفیت معنایی» هر مرحله تولید، یه راهکار قدرتمند برای بهبود کارایی مدلهای زبانیه و مسیر جدیدی رو برای توسعه مدل های کارامد باز میکنه.
🔔 Continuous Autoregressive Language Models
🫂 Project
#یادگیری_عمیق #یادگیری_ماشین #مقاله
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
برای این کار، اول یه Autoencoder قوی و مقاوم آموزش داده میشه که بتونه با دقت بالایی توکن هارو از روی بردار بازسازی بکنه. این اتو انکودر با تکنیکهایی مثل dropout و جلوگیری از فروپاشی پسین یا همون Posterior Collapse ، یه فضای مخفی منظم و مقاوم درس میکنه که برای مدلسازی تولیدی مناسبه. بعد مدل زبانی به جای پیشبینی توکن، بردار بعدی را پیشبینی میکنه اما چون دیگه احتمال صریح وجود نداره، یه چارچوب «Likelihood-Free Framework » توسعه داده میشه.
تو این چارچوب، از تابع خطای انرژی برای آموزش مدل استفاده میشه که فقط به نمونه برداری نیاز داره و مستقل از توزیع احتماله. برای ارزیابی مدل ها، معیار جدید BrierLM معرفی میشه که مبتنی بر امتیاز بریره و بدون نیاز به محاسبه احتمال، کیفیت مدلو ارزیابی میکنه. این معیار با معیار سنتی Perplexity همخوانی بالایی داره و برای مقایسه درست بین مدلهای مختلف مناسبه. همچنین، یه الگوریتم جدید برای نمونهبرداری با دما (temperature sampling) ارایه میشه که میتونه بدون دسترسی به احتمالات، دقیقا همون رفتار کنترل شده رو تولید رو شبیهسازی بکنه.
آزمایش ها نشون میده که CALM با K=4 عملکرد خیلی نزدیک به مدلهای پایه بزرگ داره، اما (((با هزینه محاسباتی خیلی کمتر))). این پیپر نشون میده که افزایش «ظرفیت معنایی» هر مرحله تولید، یه راهکار قدرتمند برای بهبود کارایی مدلهای زبانیه و مسیر جدیدی رو برای توسعه مدل های کارامد باز میکنه.
#یادگیری_عمیق #یادگیری_ماشین #مقاله
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤5👍2
Forwarded from F14 News
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥1👌1
Forwarded from شبکه داستانی عصبی (Blue Phoenix)
این راهنما رو امروز تیم فنی اپنایآی منتشر کرده.
«راهنمای تیمهای مهندسی AI-Native»
- این که ایجنتهای کدنویسی در هر مرحله از توسعه، از برنامهریزی تا طراحی و نگهداری، چه نقشی دارند
- چکلیستها و الگوهای پیادهسازی
- روشهای معرفی ایجنتها به سازمان و اعتمادسازی
https://cdn.openai.com/business-guides-and-resources/building-an-ai-native-engineering-team.pdf
«راهنمای تیمهای مهندسی AI-Native»
- این که ایجنتهای کدنویسی در هر مرحله از توسعه، از برنامهریزی تا طراحی و نگهداری، چه نقشی دارند
- چکلیستها و الگوهای پیادهسازی
- روشهای معرفی ایجنتها به سازمان و اعتمادسازی
https://cdn.openai.com/business-guides-and-resources/building-an-ai-native-engineering-team.pdf
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
بعد از عرضه ازمایشی قابلیت چتهای گروهی برای ChatGPT در چندین کشور، حالا OpenAI این قابلیت رو به صورت جهانی عرضه کرده و با اون کاربر میتونه یک گروه بسازه و تا 20 نفر رو به اون دعوت کنه. در این گروه کاربران میتونن باهم مکالمه عادی داشته باشن و مثلا برنامه خاصی بچینن و ChatGPT هر وقت تشخیص بده نیازه که به پیام خاصی جواب بده، جوابشو میفرسته. علاوه بر این میشه ChatGPT رو تگ کرد تا سوال خاصی رو جواب بده یا عکسی بسازه.
#هوش_مصنوعی
💰 مطالب بیشتر 👇👇
🔵 @AI_DeepMind
🔸 @AI_Person
#هوش_مصنوعی
🔸 @AI_Person
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍2
Forwarded from Daily Laily
سلام
من برای گُفتا دنبال یک Founding Product Engineer هستم؛
کسی که علاوه بر توان فنی، تو تصمیمات محصول و تصمیمات مهم هم مشارکت داشته باشه.
اگه کار استارتاپی دوست دارید منتظر شماییم 😌
@leilasadatalavi
من برای گُفتا دنبال یک Founding Product Engineer هستم؛
کسی که علاوه بر توان فنی، تو تصمیمات محصول و تصمیمات مهم هم مشارکت داشته باشه.
اگه کار استارتاپی دوست دارید منتظر شماییم 😌
@leilasadatalavi
❤4☃2
Forwarded from Ali's Notes
Andrej Karpathy: Software Is Changing (Again)
@css_nlp
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Andrej Karpathy: Software Is Changing (Again)
Andrej Karpathy's keynote on June 17, 2025 at AI Startup School in San Francisco. Slides provided by Andrej: https://drive.google.com/file/d/1a0h1mkwfmV2PlekxDN8isMrDA5evc4wW/view?usp=sharing
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
❤4👍1
یکی از دوره های یادگیری زبان R و پایتون برای هوش مصنوعی که پیشنهاد شخصی خودم هست که یک دوره با کیفیت و خوبی از مدرس دورههای علم داده و آمار و اپیدمیولوژی از استاد دکتر مهدی اکبرزاده استاد دانشگاه شهیدبهشتی هست این روزا با توجه به روند تحلیل دیتا و زبانهای برنامه نویسی گزینه R همیشه یکی از گزینههای مدنظر برای تحلیل دیتا هست اگر آشنایی به اینزبان ندارید و قصد ورود به حوزه تحلیل دیتا دارید این دوره رو به شما علاقمندان توصیه میکنم.
@rwithme2025
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍1🔥1👌1
Hunyuan OCR, Tencent's new document-understanding model, is now on huggingface
🚀
- SOTA in document parsing, visual Q&A and Translation
- 1B-parameter, end-to-end
- Interactive demo available
- Tech report released
https://huggingface.co/spaces/tencent/HunyuanOCR
https://huggingface.co/tencent/HunyuanOCR
#مقاله
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
- SOTA in document parsing, visual Q&A and Translation
- 1B-parameter, end-to-end
- Interactive demo available
- Tech report released
https://huggingface.co/spaces/tencent/HunyuanOCR
https://huggingface.co/tencent/HunyuanOCR
#مقاله
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from کانال اطلاعرسانی کارگاههای دکتر اکبرزاده
دوره جامع تحلیل داده با هدف ارتقای مهارتهای پژوهشی و حرفهای، از مبانی آمار تا مدلسازی پیشرفته و یادگیری ماشین طراحی شده است. شرکتکنندگان در این برنامه، بهصورت گامبهگام با مفاهیم آماری، اجرای تحلیلها در محیطهای R و Python، روشهای مدلسازی، تحلیل دادههای واقعی و استفاده کاربردی از هوش مصنوعی آشنا میشوند.
خیر! همه مباحث از ابتدا توضیح داده میشود. با روش vibe codeing نیازی به پیشزمینه برنامه نویسی نیز ندارید. کافیست نحوه کار با این شیوه را یاد بگیرید.
این دوره برای اساتید، پژوهشگران، دانشجویان، متخصصان علوم داده، مهندسان نرمافزار و داده، پزشکان و پژوهشگران حوزه سلامت، فعالان کسبوکار، دیجیتال مارکترها و تمامی علاقهمندان به تحلیل داده مناسب است.
برای دریافت سرفصل کامل دورهها به ادمین پیام دهید.
برای دریافت اطلاعات تکمیلی، شرایط ثبتنام، و بررسی ظرفیت، میتوانید به اکانت پشتیبانی زیر، کلمهٔ «دوره» را ارسال نمایید:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥2❤1
Forwarded from Database Labdon
🔵 عنوان مقاله
Updating Passwords Now That MD5 Password Support is Deprecated
🟢 خلاصه مقاله:
با کنار گذاشته شدن پشتیبانی از رمزهای عبور مبتنی بر MD5، لازم است گذار به روشهای امنتر انجام شود؛ کاری روتین و نهچندان هیجانانگیز که به قول Dan Langille اما برای سلامت سیستمها ضروری است. ضعفهای MD5 سالهاست شناخته شدهاند، و بسیاری از پلتفرمها اکنون آن را غیرفعال میکنند. راهکار عملی شامل این مراحل است: شناسایی همه سیستمها و حسابهایی که هنوز MD5 دارند، انتخاب جایگزین مناسب مانند SCRAM-SHA-256 برای پایگاهدادهها یا bcrypt/scrypt/yescrypt/Argon2 برای سیستمعامل و برنامهها، بهروزرسانی پیکربندیها و اطمینان از سازگاری کلاینتها پیش از قطع کامل MD5. برای بازتولید هشها میتوان از ورود بعدی کاربر، مهلت چرخش رمز، یا مهاجرت مرحلهای استفاده کرد؛ حسابهای سرویس نیز نیازمند مدیریت ویژه و هماهنگی انتشار هستند. تست جامع، پایش خطاهای احراز هویت، برنامه بازگشت، و حذف نهایی مسیرهای قدیمی، کلید یک مهاجرت موفقاند. نتیجه هرچند کمزرقوبرق، اما ارتقای واقعی امنیت، کاهش ریسک انطباق، و آیندهپذیری بهتر سامانههای احراز هویت است.
#MD5 #PasswordSecurity #Deprecation #Hashing #Migration #SecurityOps #SCRAM #Argon2 #bcrypt
🟣لینک مقاله:
https://postgresweekly.com/link/177317/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Updating Passwords Now That MD5 Password Support is Deprecated
🟢 خلاصه مقاله:
با کنار گذاشته شدن پشتیبانی از رمزهای عبور مبتنی بر MD5، لازم است گذار به روشهای امنتر انجام شود؛ کاری روتین و نهچندان هیجانانگیز که به قول Dan Langille اما برای سلامت سیستمها ضروری است. ضعفهای MD5 سالهاست شناخته شدهاند، و بسیاری از پلتفرمها اکنون آن را غیرفعال میکنند. راهکار عملی شامل این مراحل است: شناسایی همه سیستمها و حسابهایی که هنوز MD5 دارند، انتخاب جایگزین مناسب مانند SCRAM-SHA-256 برای پایگاهدادهها یا bcrypt/scrypt/yescrypt/Argon2 برای سیستمعامل و برنامهها، بهروزرسانی پیکربندیها و اطمینان از سازگاری کلاینتها پیش از قطع کامل MD5. برای بازتولید هشها میتوان از ورود بعدی کاربر، مهلت چرخش رمز، یا مهاجرت مرحلهای استفاده کرد؛ حسابهای سرویس نیز نیازمند مدیریت ویژه و هماهنگی انتشار هستند. تست جامع، پایش خطاهای احراز هویت، برنامه بازگشت، و حذف نهایی مسیرهای قدیمی، کلید یک مهاجرت موفقاند. نتیجه هرچند کمزرقوبرق، اما ارتقای واقعی امنیت، کاهش ریسک انطباق، و آیندهپذیری بهتر سامانههای احراز هویت است.
#MD5 #PasswordSecurity #Deprecation #Hashing #Migration #SecurityOps #SCRAM #Argon2 #bcrypt
🟣لینک مقاله:
https://postgresweekly.com/link/177317/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
❤3👍2
سلام وقت بخیر.
ما در شرکتمون به دنبال یک نفر Software Engineer (Python/Django) هستیم. محصولی که روش کار میشه بینالمللی هست و به خارج از ایران سرویس میده. جزییات کامل تعریف این موقعیت شغلی و همینطور اطلاعات تماس توی فایل Google Docs زیر هست:
https://www.visiwise.co/
https://docs.google.com/document/d/1pVDHkl4Py8cO2sP2Buy7IXseQg1oA_JpfYHFjY-mvd8/edit?tab=t.0#heading=h.ag0lp8kji7iz
ما در شرکتمون به دنبال یک نفر Software Engineer (Python/Django) هستیم. محصولی که روش کار میشه بینالمللی هست و به خارج از ایران سرویس میده. جزییات کامل تعریف این موقعیت شغلی و همینطور اطلاعات تماس توی فایل Google Docs زیر هست:
https://www.visiwise.co/
https://docs.google.com/document/d/1pVDHkl4Py8cO2sP2Buy7IXseQg1oA_JpfYHFjY-mvd8/edit?tab=t.0#heading=h.ag0lp8kji7iz
🔥5❤1
🌱سلام دوستان وقت شما بخیر
📊ما در حال انجام یک پژوهش در زمینه ذهنخوانی و درک احساسات خود و دیگران در مرکز پژوهش هیلان هستیم.
⏱️این پرسشنامه فقط ۱۵-۱۰ دقیقه از زمان شما رو میگیره و برای افراد بالای ۱۸ سال طراحی شده.
🙏🏻اطلاعات شما به صورت کاملا محرمانه حفظ میشه و مشارکت شما به من خیلی کمک میکنه.
🌸پیشاپیش از همکاری شما بسیار سپاسگزارم.
https://survey.porsline.ir/s/PFPz0diI
📊ما در حال انجام یک پژوهش در زمینه ذهنخوانی و درک احساسات خود و دیگران در مرکز پژوهش هیلان هستیم.
⏱️این پرسشنامه فقط ۱۵-۱۰ دقیقه از زمان شما رو میگیره و برای افراد بالای ۱۸ سال طراحی شده.
🙏🏻اطلاعات شما به صورت کاملا محرمانه حفظ میشه و مشارکت شما به من خیلی کمک میکنه.
🌸پیشاپیش از همکاری شما بسیار سپاسگزارم.
https://survey.porsline.ir/s/PFPz0diI
☃2❤1
این مقاله یه چارچوب جدید یادگیری تو در تو یا Nested Learning رو معرفی میکنه که یه دیدگاه متفاوت از ساختار مدل های یادگیری عمیق ارائه میده. به جای اینکه معماری های یادگیری عمیق رو بهعنوان سلسله مراتبی از لایههای پردازشی ببینیم، یادگیری تو در تو اونارو سیستمی از مسائل بهینهسازی تو در تو تفسیر میکنه که هر کدوم context flow خودشونو دارنو و با فرکانس های مختلف بروز میشن.
این دیدگاه الهامگرفته از نحوهٔ عملکرد مغز ما انسانهاس ، بهویژه تو فرایند تثبیت حافظه که به دو شکل آنلاین ( حین یادگیری) و آفلاین (حین خواب) انجام میشه. مقاله نیگه که مدلهای زبانی بزرگ بعد از تموم شدن آموزش اولیشون، مثل یه فرد مبتلا به فراموشی پیش گستر (Anterograde Amnesia) عمل میکنن؛ یعنی نمیتونن دانش جدید رو تو حافظه بلند مدتشون ذخیره کنن و صرفا به اطلاعات داخل پنجره توجه کوتاه مدت خود متکین.
نویسندگان این مقاله، یادگیری تو در تو رو به عنوان یه راه برای طراحی سیستم های یادگیری پویاتر پیشنهاد میدن. تو این چارچوب، همه مولفه های یه مدل از جمله شبکه های عصبی و بهینهساز ها، بهعنوان ماژولهای حافظه شرکت پذیر یا انجمنی (Associative Memory) دیده میشن که سعی میکنن روابط بین ورودی ها (مثل توکنها یا گرادیان ها) و خروجی ها (مثل سیگنالهای خطا یا مقادیر هدف) رو تو پارامترهای خودشون فشرده کنن.
بهعنوان مثال، بهینهساز هایی مثل اس جی دی با مومنتوم یا آدام هم به عنوان حافظههایی تفسیر میشن که گرادیان های گذشته رو ذخیره میکنن. بر این اساس، نویسنده ها چندین بهبود عملکرد رو ارائه میدن: اول، بهینهساز های عمیق تر که از حافظه های غیرخطی (مثل ام ال پی) و قوانین یادگیری قوی تر (مثل قاعده دلتا) استفاده میکنن؛ دوم، یه مدل توالی جدید به اسم (خودتغییردهنده Titans) که تو زمان تست الگوریتم بروزرسانی خودش رو یاد میگیره؛ و سوم، یه سیستم حافظه پیوسته که دیدگاه سنتی حافظهٔ کوتاه مدت/بلند مدت رو با طیفی از حافظهها با فرکانس های بهروزرسانی مختلف جایگزین میکنه.
با ترکیب این ایدهها، مدل HOPE طراحی میشه که تو اون هر لایه ام ال پی با فرکانس متفاوتی بروز میشه و مدل به طور همزمان از چندین سطح ابسترکت و مقیاس زمانی یاد میگیره. نتایج ارزیابی نشون میده که HOPE در مقایسه با ترنسفورمر و مدلهای مدرن RNN تو وظایف مدل سازی زبان، استدلال و یادگیری مداوم عملکرد رقابتی یا حتی بهتری داره!
🔔 Nested Learning: The Illusion of Deep Learning Architectures
#یادگیری_عمیق #یادگیری_ماشین #ماشین_لرنینگ #مقاله #شبکه_عصبی #ایده_جذاب
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
این دیدگاه الهامگرفته از نحوهٔ عملکرد مغز ما انسانهاس ، بهویژه تو فرایند تثبیت حافظه که به دو شکل آنلاین ( حین یادگیری) و آفلاین (حین خواب) انجام میشه. مقاله نیگه که مدلهای زبانی بزرگ بعد از تموم شدن آموزش اولیشون، مثل یه فرد مبتلا به فراموشی پیش گستر (Anterograde Amnesia) عمل میکنن؛ یعنی نمیتونن دانش جدید رو تو حافظه بلند مدتشون ذخیره کنن و صرفا به اطلاعات داخل پنجره توجه کوتاه مدت خود متکین.
نویسندگان این مقاله، یادگیری تو در تو رو به عنوان یه راه برای طراحی سیستم های یادگیری پویاتر پیشنهاد میدن. تو این چارچوب، همه مولفه های یه مدل از جمله شبکه های عصبی و بهینهساز ها، بهعنوان ماژولهای حافظه شرکت پذیر یا انجمنی (Associative Memory) دیده میشن که سعی میکنن روابط بین ورودی ها (مثل توکنها یا گرادیان ها) و خروجی ها (مثل سیگنالهای خطا یا مقادیر هدف) رو تو پارامترهای خودشون فشرده کنن.
بهعنوان مثال، بهینهساز هایی مثل اس جی دی با مومنتوم یا آدام هم به عنوان حافظههایی تفسیر میشن که گرادیان های گذشته رو ذخیره میکنن. بر این اساس، نویسنده ها چندین بهبود عملکرد رو ارائه میدن: اول، بهینهساز های عمیق تر که از حافظه های غیرخطی (مثل ام ال پی) و قوانین یادگیری قوی تر (مثل قاعده دلتا) استفاده میکنن؛ دوم، یه مدل توالی جدید به اسم (خودتغییردهنده Titans) که تو زمان تست الگوریتم بروزرسانی خودش رو یاد میگیره؛ و سوم، یه سیستم حافظه پیوسته که دیدگاه سنتی حافظهٔ کوتاه مدت/بلند مدت رو با طیفی از حافظهها با فرکانس های بهروزرسانی مختلف جایگزین میکنه.
با ترکیب این ایدهها، مدل HOPE طراحی میشه که تو اون هر لایه ام ال پی با فرکانس متفاوتی بروز میشه و مدل به طور همزمان از چندین سطح ابسترکت و مقیاس زمانی یاد میگیره. نتایج ارزیابی نشون میده که HOPE در مقایسه با ترنسفورمر و مدلهای مدرن RNN تو وظایف مدل سازی زبان، استدلال و یادگیری مداوم عملکرد رقابتی یا حتی بهتری داره!
#یادگیری_عمیق #یادگیری_ماشین #ماشین_لرنینگ #مقاله #شبکه_عصبی #ایده_جذاب
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤3🔥1👌1🆒1
پیشبینیها از بازار هوش مصنوعی تا سال 2030
به سهم هر قسمت توجه کنید، همه چیز LLM نیست.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
✅ @reza_jafari_ai
به سهم هر قسمت توجه کنید، همه چیز LLM نیست.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4☃1
Qwen3-VL Tech report is now out on arXiv!
From pretraining to post-training, architecture to infra, data to evaluation — we’ve packed in the details for anyone building on vision-language models.
🔥 3 models >1M downloads in just over a month
🏆 Qwen3-VL-8B leads with 2M+ downloads
📚 Built on the shoulders of Qwen2.5-VL (2800+ citations in <10 months!)
Check out the paper for insights, baselines, and future directions.
Let’s keep pushing VLMs forward — together.
arxiv.org/pdf/2511.21631
From pretraining to post-training, architecture to infra, data to evaluation — we’ve packed in the details for anyone building on vision-language models.
🔥 3 models >1M downloads in just over a month
🏆 Qwen3-VL-8B leads with 2M+ downloads
📚 Built on the shoulders of Qwen2.5-VL (2800+ citations in <10 months!)
Check out the paper for insights, baselines, and future directions.
Let’s keep pushing VLMs forward — together.
arxiv.org/pdf/2511.21631
❤10
