Tensorflow(@CVision)
ضمن قبولی طاعات و عبادات، به مناسبت فرا رسیدن نوروز، کلاسویژن برای همراهان گرامی تخفیف ویژهای در نظر گرفته است. شما میتوانید با استفاده از کد تخفیف nowruz404 از ۴۰٪ تخفیف بر روی تمامی دورههای آموزشی ما بهرهمند شوید. این فرصت استثنایی را از دست ندهید…
علاوه بر تخفیفات ۴۰ درصدی روی سایت کلاس ویژن
با کلیک بر روی این لینک و کپی کردن کد تخفیف زیر از 50 درصد تخفیف دوره opencv در مکتب خونه استفاده کنید:
با کلیک بر روی این لینک و کپی کردن کد تخفیف زیر از 50 درصد تخفیف دوره opencv در مکتب خونه استفاده کنید:
COUPON-95179
مکتبخونه
آموزش پردازش تصویر و بینایی ماشین با OpenCV
دوره آموزش پردازش تصویر و بینایی ماشین با opencv برای ایجاد یک پایه قوی در بینایی کامپیوتر طراحی شده است. در این دوره شما درک کاملی از تقریبا تمام ابزارهای OpenCV برای پردازش تصویر، بینایی کامپیوتری، پردازش ویدئو و اصول اولیه هوش مصنوعی خواهید داشت.
بر اساس گزارش Artificial Analysis مدل آپدیت شده Deepseek V3 هم اکنون بهترین مدل غیراستدلالی در هر دو دسته مدل های منبع باز و بسته هست
https://x.com/ArtificialAnlys/status/1904467258812109158
مدل:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
https://x.com/ArtificialAnlys/status/1904467258812109158
مدل:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
This media is not supported in your browser
VIEW IN TELEGRAM
تیم Deepseek عنوان کرده که تغییرات جزیی ایجاد کرده اما بسیاری از قابلیت های این مدل به صورت گسترده از جمله کدنویسی بهبود پیدا کرده
Claude sonnet 3.7 vs Deepseek v3-0324
لیست تغییرات:
https://api-docs.deepseek.com/updates
Claude sonnet 3.7 vs Deepseek v3-0324
لیست تغییرات:
https://api-docs.deepseek.com/updates
تصور اینکه این عکس توسط هوش مصنوعی تولید شده باشه بسیار سخته.
مدل نه تنها عکس رو با جزییات کامل تولید کرده بلکه متن نوشته شده روی وایت بورد دقیقا متن وارد شده در پرامپ هست!
اوپن ای آی پیشرفته ترین مدل تولید تصویر خودش رو در GPT-4o ادغام کرد. نتیجه این کار، تولید تصاویریه که نه تنها زیبان، بلکه بسیار کاربردین.
https://openai.com/index/introducing-4o-image-generation/
مدل نه تنها عکس رو با جزییات کامل تولید کرده بلکه متن نوشته شده روی وایت بورد دقیقا متن وارد شده در پرامپ هست!
اوپن ای آی پیشرفته ترین مدل تولید تصویر خودش رو در GPT-4o ادغام کرد. نتیجه این کار، تولید تصاویریه که نه تنها زیبان، بلکه بسیار کاربردین.
https://openai.com/index/introducing-4o-image-generation/
این وسط گوگل هم
Gemini 2.5 Pro
رو معرفی میکنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره
البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.
عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم
https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
Gemini 2.5 Pro
رو معرفی میکنه که در بین مدل های استدلالی بالاترین امتیاز رو توی بنچ مارک های مختلف میگیره
البته یه مدل مخصوص تولید تصاویر هم منتشر کرده که کیفیت تولید تصاویرش در حد اوپن ای آی هست با این تفاوت که دیگه محدودیت تولید تصاویر ندارید.
عکس بالا رو توسط همون پرامپی که اوپن ای آی قرار داده تولید کردم
https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-thinking
Tensorflow(@CVision)
ضمن قبولی طاعات و عبادات، به مناسبت فرا رسیدن نوروز، کلاسویژن برای همراهان گرامی تخفیف ویژهای در نظر گرفته است. شما میتوانید با استفاده از کد تخفیف nowruz404 از ۴۰٪ تخفیف بر روی تمامی دورههای آموزشی ما بهرهمند شوید. این فرصت استثنایی را از دست ندهید…
Please open Telegram to view this post
VIEW IN TELEGRAM
مایکروسافت روش جدیدی به نام KBLaM برای اضافه کردن دانش به مدل های زبانی پیشنهاد داده که نسبت به روش های پیشین بهینه تره.
توی روشهای سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده های جدید دارن. این فرآیند بسیار زمان بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام میکنه، که این امر باعث صرفه جویی قابل توجهی در زمان و هزینه میشه.
در روشهای دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه میتونه زمانبر باشه. KBLaM با ادغام دانش در لایه های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.
از طرفی مدلهای زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخهای نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.
توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، میشه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده تر و سریع تر از آموزش مجدد کل مدله!
https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
توی روشهای سنتی مثل Fine-tuning، مدلها نیاز به آموزش مجدد با داده های جدید دارن. این فرآیند بسیار زمان بر، پرهزینه و نیازمند منابع محاسباتی زیادی هست. KBLaM دانش رو بدون نیاز به آموزش مجدد در مدل ادغام میکنه، که این امر باعث صرفه جویی قابل توجهی در زمان و هزینه میشه.
در روشهای دیگه مثل Retrieval-Augmented Generation (RAG)، مدل برای پاسخ دادن به سوالات، ابتدا باید اطلاعات مرتبط رو از یه منبع خارجی بازیابی و بعد از اون اطلاعات برای تولید پاسخ استفاده کنه. این فرآیند بازیابی جداگانه میتونه زمانبر باشه. KBLaM با ادغام دانش در لایه های attention مدل، عمل بازیابی را به صورت ضمنی و یکپارچه انجام میده و نیازی به مراحل جداگانه بازیابی نداره.
از طرفی مدلهای زبانی که فقط بر دانش داخلی خود تکیه میکنن، ممکنه اطلاعات نادرست یا بی اساس تولید کنن (اصطلاحاً توهم بزنن)، اما KBLaM با فراهم کردن دسترسی مستقیم به دانش ساختار یافته و معتبر، احتمال تولید پاسخهای نادرست رو کاهش میده و قابلیت اطمینان مدل رو به صورت چشمگیری افزایش میده.
توی این روش اگه اطلاعات جدیدی به پایگاه دانش اضافه شه یا اطلاعات قبلی تغییر کنن، میشه به راحتی دانش مدل رو با بروزرسانی حافظه خارجی KBLaM آپدیت کرد. این کار بسیار ساده تر و سریع تر از آموزش مجدد کل مدله!
https://www.microsoft.com/en-us/research/blog/introducing-kblam-bringing-plug-and-play-external-knowledge-to-llms/
Microsoft Research
A more efficient path to add knowledge to LLMs
Introducing KBLaM, an approach that encodes and stores structured knowledge within an LLM itself. By integrating knowledge without retraining, it offers a scalable alternative to traditional methods.
This media is not supported in your browser
VIEW IN TELEGRAM
همین که سال نو میلادی شروع شد، اتفاق ها بی وقفه، یکی پس از دیگری، شروع به رخ دادن کردن، انگار واقعا وارد مراحل اولیه دوران تکینگی (Singularity) شدیم!
تا پیش از این، باید ماه ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک بار، اتفاقی جریان ساز و دگرگونکننده رخ میده.
چقدر طول میکشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟
سال ۲۰۲۶ اوضاع دیوانه واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمهای پیدا نمیکنم
تا پیش از این، باید ماه ها منتظر می موندیم تا شاهد یه عرضه بزرگ یا یک پیشرفت چشمگیر باشیم. اما حالا، امسال، تقریبا هر دو هفته یک بار، اتفاقی جریان ساز و دگرگونکننده رخ میده.
چقدر طول میکشه تا این فاصله به یک هفته و بعد به سه روز کاهش پیدا کنه؟
سال ۲۰۲۶ اوضاع دیوانه واری در پیشه و برای توصیف ۲۰۲۷، واقعا کلمهای پیدا نمیکنم
Alibaba launches new open-source AI model for ‘cost-effective AI agents’
https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
CNBC
Alibaba launches new open-source AI model for 'cost-effective AI agents'
Alibaba Cloud has launched its latest AI model in its "Qwen series," as large language model competition in China continues to heat up.
Tensorflow(@CVision)
Alibaba launches new open-source AI model for ‘cost-effective AI agents’ https://www.cnbc.com/2025/03/27/alibaba-launches-open-source-ai-model-for-cost-effective-ai-agents.html
Media is too big
VIEW IN TELEGRAM
بعد از عرضه مدل های زبانی در روز گذشته، امروز علی بابا مدل Qwen2.5-Omni با ۷ میلیارد پارامتر رو بصورت متن باز منتشر کرد، مدلی جامع که میتونه متن، صدا، تصویر و ویدئو رو پردازش کنه.
از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم میکنه.
متفکر (Thinker): مانند مغز عمل میکنه. ورودی های مختلف (متن، صدا، تصویر) رو پردازش و درک می کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می کنه
گوینده (Talker): مانند دهان انسان عمل می کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره
در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل میکنه و امکان آموزش و استفاده end-to-end رو فراهم می کنه
جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/
دمو:
https://chat.qwenlm.ai/
از قابلیت های این مدل جامع معماری "thinker-talker" هست که امکان استدلال و صحبت کردن رو به طور همزمان فراهم میکنه.
متفکر (Thinker): مانند مغز عمل میکنه. ورودی های مختلف (متن، صدا، تصویر) رو پردازش و درک می کنه، اطلاعات مهم رو استخراج و به صورت متن آماده می کنه
گوینده (Talker): مانند دهان انسان عمل می کنه، متن تولید شده توسط متفکر رو به صورت پیوسته دریافت و اونها رو به صورت کلمات گسسته به زبان میاره
در طول آموزش و استفاده، گوینده مستقیما اطلاعات مهم تولید شده توسط متفکر رو دریافت و تمام اطلاعات قبلی متفکر رو نیز به اشتراک می گذاره. در نتیجه، کل معماری به عنوان یک مدل واحد و یکپارچه عمل میکنه و امکان آموزش و استفاده end-to-end رو فراهم می کنه
جزییات معماری:
https://qwenlm.github.io/blog/qwen2.5-omni/
دمو:
https://chat.qwenlm.ai/
This media is not supported in your browser
VIEW IN TELEGRAM
این روزها که اینترنت پر از تصاویر سبک استودیو Ghibli شده، جا داره که گفت این صحنه ۴ ثانیهای از جمعیت در یکی از آثار این استدیو، بیش از یک سال طول کشید تا تکمیل شه.
الان که به مدد مدل های زبانی میتونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدلهای زبانی، بلکه به خاطر کار طاقت فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کردهاند و تکرار آن بسیار دشواره.
الان که به مدد مدل های زبانی میتونیم تصاویر زیبای سبک استودیو Ghibli تولید کنیم نه به خاطر ChatGPT یا سایر مدلهای زبانی، بلکه به خاطر کار طاقت فرسای هزاران ساعتِ این افراد هنرمنده که در این استودیو کار کردهاند و تکرار آن بسیار دشواره.
Forwarded from رویدادهای هوش مصنوعی
🚀 آینده شغلیات رو با هوش مصنوعی متحول کن! 🚀
🔥 تخفیف استثنایی ۴۰٪ برای برترین دورههای هوش مصنوعی در Class Vision! 🔥
✅ با کد
⏳ فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! ⏳
این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision
#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
🔥 تخفیف استثنایی ۴۰٪ برای برترین دورههای هوش مصنوعی در Class Vision! 🔥
✅ با کد
nowruz404
روی هر دورهای که میخوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر!⏳ فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! ⏳
این فرصت تکرار نشدنی برای ورود به دنیای جذاب AI رو از دست نده! 👇
https://class.vision
#هوش_مصنوعی #تخفیف #آموزش_هوش_مصنوعی #کلاس_ویژن #یادگیری_ماشین #مهارت_آینده #بینایی_کامپیوتر
Tensorflow(@CVision) pinned «🚀 آینده شغلیات رو با هوش مصنوعی متحول کن! 🚀 🔥 تخفیف استثنایی ۴۰٪ برای برترین دورههای هوش مصنوعی در Class Vision! 🔥 ✅ با کد nowruz404 روی هر دورهای که میخوای، بدون محدودیت سقف قیمت، ۴۰٪ تخفیف بگیر! ⏳ فقط تا آخر این هفته (۱۵ فروردین) فرصت داری! ⏳ این…»
This media is not supported in your browser
VIEW IN TELEGRAM
دانشگاه هنگ کنگ مدل Dream 7B (مدل استدلال defusion) رو منتشر کرد. این مدل، بهترین مدل defusion متن باز تا به امروز هست و میتونید تعداد گام های defusion رو برای تعادل بین سرعت و دقت تنظیم کنید.
https://hkunlp.github.io/blog/2025/dream/
https://hkunlp.github.io/blog/2025/dream/
Forwarded from Deep learning channel (Alister☄)
alisterta.github.io
TPU چگونه کار میکند؟
TPU یا واحد پردازش تنسور یک نوع مدارمجتمع با کاربرد خاص (Application-specific integrated circuit)هست که توسط گوگل به طور خاص برای کارهای یادگیری ماشین توسعه داده شد. در حال حاضر بسیاری از محصولات گوگل اعم از مترجم، دستیار جستجو ، جیمیل و … از این واحد های…
Tensorflow(@CVision)
TPU چگونه کار میکند https://alisterta.github.io/2018-09-03/TPU-چگونه-کار-میکند/
سال ۲۰۱۸ توی این پست به معرفی سختافزار TPU گوگل پرداختم حالا سرمایه گذاری بلند مدت گوگل داره نتایج درخشان خودش رو نشون میده.
شرکتهایی که برای پردازش مدلهاشون به GPU های شرکت Nvidia متکی هستن، با چالش های سختافزاری و هزینههای بالا مواجه شدن در حالی که سرمایهگذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.
این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سختافزار همه منظوره برای این کار هستن، TPUها بهطور خاص برای مدلهای ترنسفورمر بهینه شدن. گوگل نهتنها زنجیره تأمین سختافزار خودش رو کنترل میکنه، بلکه سخت افزاری در اختیار داره که برای این نوع پردازش مناسب تر از هر گزینهی دیگه ست.
شرکتهایی که برای پردازش مدلهاشون به GPU های شرکت Nvidia متکی هستن، با چالش های سختافزاری و هزینههای بالا مواجه شدن در حالی که سرمایهگذاری گوگل روی TPUها جواب داد. گوگل حالا انحصار سخت افزار خودش رو داره و دیگه نیازی به GPUهای انویدیا نداره.
این موضوع شاید بیشتر به مزایای خود TPUها مربوط باشه تا یک ویژگی خاص در طراحی Gemini. در حالی که GPU ها بهترین سختافزار همه منظوره برای این کار هستن، TPUها بهطور خاص برای مدلهای ترنسفورمر بهینه شدن. گوگل نهتنها زنجیره تأمین سختافزار خودش رو کنترل میکنه، بلکه سخت افزاری در اختیار داره که برای این نوع پردازش مناسب تر از هر گزینهی دیگه ست.