Telegram Web
Tensorflow(@CVision)
خروجی
Audio
تبلیغ آلودگی تهران
بر اساس گزارش Artificial Analysis مدل آپدیت شده Deepseek V3 هم اکنون بهترین مدل غیراستدلالی در هر دو دسته مدل های منبع باز و بسته هست

https://x.com/ArtificialAnlys/status/1904467258812109158

مدل:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
This media is not supported in your browser
VIEW IN TELEGRAM
تیم Deepseek عنوان کرده که تغییرات جزیی ایجاد کرده اما بسیاری از قابلیت های این مدل به صورت گسترده از جمله کدنویسی بهبود پیدا کرده

Claude sonnet 3.7 vs Deepseek v3-0324

لیست تغییرات:

https://api-docs.deepseek.com/updates
تصور اینکه این عکس توسط هوش مصنوعی تولید شده باشه بسیار سخته.

مدل نه تنها عکس رو با جزییات کامل تولید کرده بلکه متن نوشته شده روی وایت بورد دقیقا متن وارد شده در پرامپ هست!

اوپن ای آی پیشرفته‌ ترین مدل تولید تصویر خودش رو در GPT-4o ادغام کرد. نتیجه این کار، تولید تصاویریه که نه‌ تنها زیبان، بلکه بسیار کاربردین.

https://openai.com/index/introducing-4o-image-generation/
این وسط گوگل هم
Gemini 2.5 Pro

رو معرفی می‌کنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره

البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.

عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم

https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
مایکروسافت روش جدیدی به نام KBLaM برای اضافه کردن دانش به مدل‌ های زبانی پیشنهاد داده که نسبت به روش های پیشین بهینه تره.

توی روش‌های سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده‌ های جدید دارن. این فرآیند بسیار زمان‌ بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام می‌کنه، که این امر باعث صرفه‌ جویی قابل توجهی در زمان و هزینه میشه.

در روش‌های دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه می‌تونه زمانبر باشه. KBLaM با ادغام دانش در لایه‌ های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.

از طرفی مدل‌های زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی‌ اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخ‌های نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.

توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، می‌شه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده‌ تر و سریع‌ تر از آموزش مجدد کل مدله!

https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
This media is not supported in your browser
VIEW IN TELEGRAM
همین که سال نو میلادی شروع شد، اتفاق‌ ها بی‌ وقفه، یکی پس از دیگری، شروع به رخ دادن کردن، انگار واقعا وارد مراحل اولیه‌ دوران تکینگی (Singularity) شدیم!

تا پیش از این، باید ماه‌ ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک‌ بار، اتفاقی جریان‌ ساز و دگرگون‌کننده رخ میده.

چقدر طول می‌کشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟

سال ۲۰۲۶ اوضاع دیوانه‌ واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمه‌ای پیدا نمیکنم
Tensorflow(@CVision)
Alibaba launches new open-source AI model for ‘cost-effective AI agents’ https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
Media is too big
VIEW IN TELEGRAM
بعد از عرضه مدل های زبانی در روز گذشته، امروز علی بابا مدل Qwen2.5-Omni با ۷ میلیارد پارامتر رو بصورت متن باز منتشر کرد، مدلی جامع که میتونه متن، صدا، تصویر و ویدئو رو پردازش کنه.

 از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم می‌کنه.


متفکر (Thinker): مانند مغز عمل می‌کنه. ورودی‌ های مختلف (متن، صدا، تصویر) رو پردازش و درک می‌ کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می‌ کنه

گوینده (Talker): مانند دهان انسان عمل می‌ کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره

در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می‌ گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل می‌کنه و امکان آموزش و استفاده end-to-end رو فراهم می‌ کنه


جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/

دمو:
https://chat.qwenlm.ai/
This media is not supported in your browser
VIEW IN TELEGRAM
این روزها که اینترنت پر از تصاویر سبک استودیو Ghibli شده، جا داره که گفت این صحنه ۴ ثانیه‌ای از جمعیت در یکی از آثار این استدیو، بیش از یک سال طول کشید تا تکمیل شه.

الان که به مدد مدل های زبانی می‌تونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدل‌های زبانی، بلکه به خاطر کار طاقت‌ فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کرده‌اند و تکرار آن بسیار دشواره.
🚀 آینده شغلی‌ات رو با هوش مصنوعی متحول کن! 🚀

🔥 تخفیف استثنایی ۴۰٪ برای برترین دوره‌های هوش مصنوعی در Class Vision! 🔥

با کد nowruz404 روی هر دوره‌ای که می‌خوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر!

فقط تا آخر این هفته (۱۵ فروردین) فرصت داری!

این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision

#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
Tensorflow(@CVision) pinned «🚀 آینده شغلی‌ات رو با هوش مصنوعی متحول کن! 🚀 🔥 تخفیف استثنایی ۴۰٪ برای برترین دوره‌های هوش مصنوعی در Class Vision! 🔥 با کد nowruz404 روی هر دوره‌ای که می‌خوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر! فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! این…»
This media is not supported in your browser
VIEW IN TELEGRAM
دانشگاه هنگ کنگ مدل Dream 7B (مدل استدلال defusion) رو منتشر کرد. این مدل، بهترین مدل defusion متن‌ باز تا به امروز هست و میتونید تعداد گام‌ های defusion رو برای تعادل بین سرعت و دقت تنظیم کنید.

https://hkunlp.github.io/blog/2025/dream/
Tensorflow(@CVision)
TPU چگونه کار میکند https://alisterta.github.io/2018-09-03/TPU-چگونه-کار-میکند/
سال ۲۰۱۸ توی این پست به معرفی سخت‌افزار TPU گوگل پرداختم حالا سرمایه گذاری بلند مدت گوگل داره نتایج درخشان خودش رو نشون میده.

شرکت‌هایی که برای پردازش مدل‌هاشون به GPU های شرکت Nvidia متکی هستن، با چالش‌ های سخت‌افزاری و هزینه‌های بالا مواجه شدن در حالی که سرمایه‌گذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت‌ افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.

این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سخت‌افزار همه‌ منظوره برای این کار هستن، TPUها به‌طور خاص برای مدل‌های ترنسفورمر بهینه شدن. گوگل نه‌تنها زنجیره تأمین سخت‌افزار خودش رو کنترل می‌کنه، بلکه سخت‌ افزاری در اختیار داره که برای این نوع پردازش مناسب‌ تر از هر گزینه‌ی دیگه ست.
2025/06/28 17:50:32
Back to Top
HTML Embed Code: