Telegram Web
سری مدل‌های Qwen3-Embedding و Qwen3-Reranker

تیم تحقیقاتی Qwen مدل‌های جدید خود را معرفی کرده که بر پایه‌ی مدل‌های زبانی Qwen3 توسعه یافته‌اند. این مدل‌ها با استفاده از یک روند آموزشی چندمرحله‌ای و بهره‌گیری از قدرت مدل‌های زبانی بزرگ، به عملکردی بی‌رقیب در پردازش چندزبانه و بازیابی اطلاعات رسیده‌اند.

ویژگی‌ها:
اندازه‌های مختلف مدل: 0.6B، 4B و 8B
پشتیبانی از 119 زبان زنده دنیا
صدرنشین در بنچمارک‌های معتبر مثل MTEB، MMTEB و MTEB-Code
متن‌باز و قابل دسترسی روی Hugging Face، GitHub و ModelScope
قابل استفاده مستقیم از طریق API در Alibaba Cloud

🧠 کاربردها:
جستجوی اسناد، RAG، طبقه‌بندی متون، تحلیل احساسات، جستجوی کد و ده‌ها کاربرد دیگر!
📎 اطلاعات بیشتر و دریافت مدل‌ها:
https://huggingface.co/papers/2506.05176
این مقاله از محققیق اپل میگه در مسائل ساده، مدل‌ های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل ‌های استدلال ‌محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه‌ تنها لازم نیست، بلکه ممکنه منجر به تفکر بیش از حد شه و دقت یا سرعت پاسخ رو کاهش بده.

در مسائل با پیچیدگی متوسط، الگوی عملکرد معکوس میشه، مدل‌های استدلال ‌محور با بهره‌ گیری از زنجیره‌های تفکر طولانی‌تر (COT)، میتونن بهتر از مدل‌های ساده، اجزای مسئله رو گام ‌به ‌گام تجزیه کنن و به نتیجه درست برسن. اما در مسائل بسیار پیچیده، تمام مدل‌ها دچار فروپاشی عملکردی میشن. نه مدل‌ های ساده، نه مدل‌ های پیشرفته استدلالی قادر به مدیریت این دسته از مسائل نیستن. این سقوط عملکرد نشون میده که محدودیت‌های بنیادی در حافظه، ظرفیت برنامه‌ ریزی و پیوستگی منطق در مدل‌ های فعلی وجود داره.

همچنین به طرز غیرمنتظره‌ای، با افزایش پیچیدگی مسائل، تلاش استدلالی مدل ‌ها کاهش پیدا میکنه. این یافته که با استفاده از معیارهایی مانند تعداد توکن‌های تولید شده برای تفکر اندازه‌ گیری شده، بیانگر این واقعیته که مدل‌ها در مواجهه با مسائل دشوارتر، نه‌ تنها ناتوان ‌تر میشن، بلکه حتی کمتر سعی می‌کنند فکر کنن.

زنجیره تفکر (CoT) یکی از روش‌های مهم برای تقویت استدلال در مدل‌های زبانی هست. با این حال، مقاله نشون میده که کارایی CoT محدود به دامنه‌ خاص از پیچیدگی هست. در حالی که CoT میتونه در مسائل متوسط کمک ‌کننده باشه، در مسائل پیچیده ‌تر نه‌ تنها اثربخش نیست، بلکه منجر به افزایش زمان پاسخ ‌دهی و ناکارآمدی محاسباتی میشه. این یافته نشون میده که زنجیره تفکر بدون نظارت یا هدایت ساختاریافته میتونه به نوعی پراکنده‌ گویی بی‌ هدف تبدیل شه.

https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
Tensorflow(@CVision)
این مقاله از محققیق اپل میگه در مسائل ساده، مدل‌ های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل ‌های استدلال ‌محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه‌ تنها…
شاید بهتره که بپذیریم چیزی ‌بنام مدل‌های استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل ‌های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ‌ای بیشتری در اختیار خود قرار میدن.

حلقه‌ استدلال معادل اینه که به یک مدل زبانی معمولی بگیم «پاسخت رو اصلاح کن» یا «زمینه‌ بیشتری از این نوع خاص رو در نظر بگیر».

در واقع چیزی ‌بنام استدلال (reasoning) وجود نداره، همیشه صرفا راهکاری بوده برای کاهش پاسخ‌ های ساختگی(hallucination) یا افزودن خودکار اطلاعات زمینه‌ ای ، نه چیز دیگه.

شرکت‌های بزرگ یکی از ترفندهای ابتدایی مهندسی پرامپت رو که سال‌ها پیش بوجود اومده بود، در مدل هاشون تعبیه کردن، و در نهایت برای سود های کلان اون رو برند کردن.

قبلاً اینجا به صورت مفصل دربارش نوشتم:

https://www.tgoop.com/cvision/3770
Tensorflow(@CVision)
شاید بهتره که بپذیریم چیزی ‌بنام مدل‌های استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل ‌های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ‌ای بیشتری در اختیار خود قرار میدن. حلقه‌ استدلال معادل اینه…
چون علاقه زیادی به خوندن مقالات عصب شناسی دارم این موضوع رو عنوان میکنم شاید هم راستا با دیدگاه سایر مخاطبین نباشه.

تحقیقاتی زیادی روزانه منتشر میشن، روزانه مدل هایی رو میبینیم که توی فلان بنچ مارک بهتر شدن، توی وظایف خاص انسانها رو جا میگذارن، اما انگار ما از اصل قضیه که رسیدن به AGI در مرحله اول هست داریم دور میشیم.

ما در گام اول نیاز داریم به هوش مصنوعی عمومی برسیم و هوش مصنوعی عمومی نیاز به "اصطلاح استدلال" در این سطوح رو نداره.

در مغز فرآیند استدلال علی رغم نظر عامه، انرژی خیلی زیادی مصرف نمیکنه.

حتی وقتی مغزمون درگیر کارهای سخت مثل یادگیری، برنامه‌ ریزی یا حل مسئله هست، فقط کمی بیشتر از حالت عادی انرژی لازم داره. این یعنی مغز همیشه فعاله، چه در حالت استراحت و چه در حال فکر کردن.

https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(24)00319-X?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS136466132400319X%3Fshowall%3Dtrue

ادامه داره...
Tensorflow(@CVision)
چون علاقه زیادی به خوندن مقالات عصب شناسی دارم این موضوع رو عنوان میکنم شاید هم راستا با دیدگاه سایر مخاطبین نباشه. تحقیقاتی زیادی روزانه منتشر میشن، روزانه مدل هایی رو میبینیم که توی فلان بنچ مارک بهتر شدن، توی وظایف خاص انسانها رو جا میگذارن، اما انگار…
بنابراین بیشتر انرژی مصرفی مغز برای فعالیت‌ های پس زمینه هست، نه فقط برای فکر کردن.

مثلا کنترل تنفس، احساسات، حافظه و سایر کارهای ناخودآگاه که حتی متوجهشون نمیشیم.

در گذشته، بسیاری از عصب ‌شناسان تمرکز خودشون رو بر عملکردهای فعال و آشکار مغز گذاشته بودن، مثل:
توجه، حل مسئله، حافظه کاری و تصمیم‌ گیری.

اما در پشت ‌صحنه، مغز ما در حال پردازش دائمی و پنهانه، یه مرکز فعالیت شلوغ که به چشم نمیاد. مغز ما به طور مداوم سیستم‌های فیزیولوژیکی بدن رو تنظیم میکنه و منابع رو به بخش‌هایی از بدن میفرسته که به اونها نیاز دارن، در حالی که ما، آگاهانه یا ناخودآگاه به شرایط محیطی همیشه در حال تغییر واکنش نشون میدیم.

خیلی ‌ها فکر میکنن که مغز فقط برای فکر کردنه و فعالیت‌های ذهنی مثل حل مسئله یا تصمیم‌گیریه. اما واقعیت اینه که بخش بزرگی از انرژی مغز صرف مدیریت کارهای حیاتی بدن میشه.مغز مثل یک مدیر قوی هست که اعضای بدن رو هماهنگ میکنه، منابع رو به درستی تقسیم میکنه، و به ما کمک میکنه در محیطی که همیشه تغییر میکنه، به خوبی زندگی کنیم.
این یعنی مغز ما فقط مرکز فکر کردن نیست، بلکه نقش اصلیش حفظ زندگی و سلامت بدنه.

انرژی زیادی از مغز برای این وظایف حیاتی صرف میشه، حتی بیشتر از انرژی‌ که برای فکر کردن به کار میره.

ادامه داره ...
Tensorflow(@CVision)
بنابراین بیشتر انرژی مصرفی مغز برای فعالیت‌ های پس زمینه هست، نه فقط برای فکر کردن. مثلا کنترل تنفس، احساسات، حافظه و سایر کارهای ناخودآگاه که حتی متوجهشون نمیشیم. در گذشته، بسیاری از عصب ‌شناسان تمرکز خودشون رو بر عملکردهای فعال و آشکار مغز گذاشته بودن،…
از اونطرف بودجه عظیمی صرف تحقیقات و توسعه سخت افزاری میشه. شرکت هایی مثل انویدیا تمرکز رو گذاشتن روی خلق چیپست های سخت افزاری با پهنای باند بالا چرا؟ چون هر چه اطلاعات سریعتر منتقل شه بهتره.

 اما سرعت انتقال اطلاعات در مغز به ‌طور بهینه خیلی کمتر از چیزیه که انتظار میره.

از نظر تئوری، سرعت نهایی که یه نورون در مغز میتونه فعال شه و اطلاعات رو به نورون کناریش منتقل کنه، حدود ۵۰۰ هرتزه. 

این یعنی نورون‌ ها میتونن تا ۵۰۰ بار در ثانیه سیگنال عصبی تولید و پیام‌ها رو ارسال کنن. اما اگر نورون‌ها واقعا با چنین سرعت بالایی شلیک کنن، سیستم عصبی ما به شدت دچار اشباع و سردرگمی میشه و دیگه نمیتونن پیام‌ها رو به خوبی از همدیگه تشخیص بدن. 

در واقع، نرخ اطلاعات بهینه یعنی سریع ‌ترین سرعتی که نورون‌ها میتونن همچنان پیام ‌های همسایه‌ های خود رو به صورت قابل تشخیص دریافت کنن، نصف این مقداره، یعنی حدود ۲۵۰ هرتز.

https://journals.sagepub.com/doi/10.1097/00004647-200110000-00001

ادامه داره ...
Tensorflow(@CVision)
از اونطرف بودجه عظیمی صرف تحقیقات و توسعه سخت افزاری میشه. شرکت هایی مثل انویدیا تمرکز رو گذاشتن روی خلق چیپست های سخت افزاری با پهنای باند بالا چرا؟ چون هر چه اطلاعات سریعتر منتقل شه بهتره.  اما سرعت انتقال اطلاعات در مغز به ‌طور بهینه خیلی کمتر از چیزیه…
با این حال، نورون‌های ما به طور متوسط فقط با نرخ ۴ هرتز شلیک میکنن، که ۵۰ تا ۶۰ برابر کمتر از این نرخ بهینه برای انتقال اطلاعاته.

 علاوه بر این، بسیاری از انتقال‌های سیناپسی موفقیت‌ آمیز نیستن! یعنی حتی وقتی سیگنال الکتریکی به سیناپس میرسن و آماده آزاد کردن مولکول‌ های پیام‌ رسان شیمیایی به نورون بعدی میشن، تنها ۲۰٪ موارد این انتقال اتفاق میفته و در ۸۰٪ مواقع پیام منتقل نمیشه.

علت این موضوع اینه که ما آدمها به گونه ای تکامل یافتیم که هدفمون بیشینه کردن کل میزان اطلاعات ارسال شده نباشه، بلکه بهینه کردن میزان اطلاعات ارسال شده به ازای انرژی مصرف شده (ATP) باشه.

 ATP 
واحد انرژی در سلول‌ هست و مغز ما سعی میکنه بیشترین تعداد بیت اطلاعات رو با کمترین مصرف انرژی ارسال کنه. در نتیجه، نرخ شلیک بهینه نورون‌ها بر اساس این معیار انرژی، کمتر از ۱۰ هرتزه.

از دیدگاه تکاملی، مغز بزرگ و پیچیده انسان تونسته سطح بی ‌سابقه ‌ای از رفتارهای پیچیده و انعطاف‌پذیر رو به وجود بیاره. چیزی که این روزها کمتر بهش پرداخته میشه و تمرکز شرکت های بزرگ بر روی خلق و ساخت سخت افزار با تعداد هسته های پردازشی بالاتر، حافظه بیشتر و ... شده.
بیل اتکینسون، نابغه برنامه نویسی اپل در سن 74 سالگی فوت کرد.

کارهایی که بیل اتکینسون در اپل انجام داد به خودی خود فوق‌ العاده بود اما دوست دارم به یه نکته کارش اینجا اشاره کنم.

در دهه‌ی ۱۹۸۰، زمانی که بیل اتکینسون در حال طراحی گرافیک و رابط کاربری برای اپل بود، با سخت‌افزاری مواجه بود که قدرت بسیار محدودی داشت، رم‌ هایی با ظرفیت چند کیلوبایت، پردازنده‌هایی با سرعتی به مراتب پایین‌ تر از ساده‌ ترین گوشی‌ های امروزی و فاقد هر گونه پردازنده گرافیکی، اما این موضوع باعث نشد تسلیم شه. به جای تمرکز بر محدودیت های سخت افزاری تمرکز رو بر روی نوآوری الگوریتم گذاشت.

 از دل همین محدودیت‌ها، ابزارهایی مثل MacPaint و HyperCard متولد شدن، شاهکارهایی که تجربه کاربر رو برای همیشه تغییر دادن.

امروز، ما در عصر هوش مصنوعی زندگی می‌کنیم. الگوریتم‌ هایی که قادرن متن تولید کنن، تصاویر بسازن، موسیقی خلق کنن و حتی در کنار انسان فکر کنن. اما محدودیت‌ها هنوز وجود دارن، محدودیت های محاسباتی، مصرف بالای انرژی و ...

محدودیت‌ ها همیشه بودن، اما پیشرفت همیشه از دل محدودیت‌ ها زاده شده.

چه بیل اتکینسون باشی در دهه‌ی ۸۰ میلادی، چه پژوهشگر هوش مصنوعی در سال ۲۰۲۵، آنچه اهمیت داره، طریقه برخورد شما در مواجه با محدودیت‌ هاست.

 اونها میتونن مانع باشن، یا الهام‌ بخش خلاقیت، نوآوری و جهش. از محدودیت ها همون‌طور بهره بگیریم که بزرگان تکنولوژی تاریخ بهره گرفتن: به‌عنوان سوختی برای حرکت، نه زنجیری برای توقف.

استیو جابز جمله معروفی داشت با مضمون زیر:

computers are a bicycle for the mind

اما در عصر مدل‌ های زبانی با میلیاردها پارامتر، باید از خودمون بپرسیم: آیا کامپیوتر هنوز دوچرخه‌ای برای ذهنه، یا به ماشین جنگی‌ تبدیل شده که قدرت محاسباتی رو می‌ بلعه، و از هدف ابتدایش که تقویت خلاقیت انسانی هست فاصله گرفته؟
با chatgptمیتونید عکسای قدیمی خود را رنگی و رتوش کنید،
پرامپت:

Transform this black-and-white image into a realistic colorized version. Pay attention to historical accuracy (if applicable) and natural tones. Enhance details while maintaining the original texture and contrast. Avoid oversaturation and ensure skin tones, landscapes, and objects look lifelike. If the image is old or low-quality, gently restore minor imperfections without altering key features.
🎉 تخفیف ویژه روی دوره‌های هوش مصنوعی مکتب‌خونه (تا ۷۰٪ تخفیف) 🎉
به مدت محدود و ظرفیت محدود

🎓 ۳ دوره‌ی پرطرفدار با کد تخفیف ویژه:

1️⃣ دوره OpenCV با ۶۰٪ تخفیف
🔹 کد تخفیف: COUPON-518f7
🔗 لینک ثبت‌نام: mktb.me/81nt

2️⃣ دوره یادگیری عمیق با ۶۰٪ تخفیف
🔹 کد تخفیف: COUPON-dc73c
🔗 لینک ثبت‌نام: mktb.me/2klm

3️⃣ دوره مبانی هوش مصنوعی و یادگیری ماشین با ۷۰٪ تخفیف
🔹 کد تخفیف: COUPON-8a508
🔗 لینک ثبت‌نام: mktb.me/tcsk

📌 کدها فقط برای تعداد محدودی فعال هستن، پس اگه قصد ثبت‌نام داری، عجله کن!
📤 این فرصت رو با دوستانت به اشتراک بذار 🌟

#هوش_مصنوعی #یادگیری_ماشین #یادگیری_عمیق #بینایی_ماشین #دوره_آموزشی #مکتبخونه #تخفیف_ویژه #کد_تخفیف #آموزش_آنلاین #هوش_مصنوعی_کاربردی #آموزش_رایگان
Tensorflow(@CVision)
با این حال، نورون‌های ما به طور متوسط فقط با نرخ ۴ هرتز شلیک میکنن، که ۵۰ تا ۶۰ برابر کمتر از این نرخ بهینه برای انتقال اطلاعاته.  علاوه بر این، بسیاری از انتقال‌های سیناپسی موفقیت‌ آمیز نیستن! یعنی حتی وقتی سیگنال الکتریکی به سیناپس میرسن و آماده آزاد کردن…
مغز انسان یه شگفتی از نظر بهره‌وری انرژیه. یک گروه از پژوهشگران توی این مقاله این موضوع رو به خوبی نشون دادن.

با حدود ۱۰۰ میلیارد نورون، مغز تنها ۱۲ وات انرژی مصرف می‌کنه، که کمتر از یه لامپ معمولیه. در مقابل، میزان انرژی مورد نیاز برای سامانه‌های هوش مصنوعی بسیار زیاده. بر اساس برآوردهای انجام‌ شده در پروژه‌ مغز آبی سوئیس (Blue Brain Project)، شبیه‌ سازی فرایندهای فکری مغز انسان حدود ۲.۷ میلیارد وات انرژی نیاز داره. این موضوع نشون میده که مغز زیستی ما میلیون‌ها برابر از هوش مصنوعی‌ های کنونی انرژی‌ کارآمدتر هست.

این تفاوت عظیم در مصرف انرژی نشون میده که برای توسعه‌ی یه هوش مصنوعی عمومی (AGI) که بتونه مانند انسان انعطاف‌ پذیر و خلاق فکر کنه، باید چالش‌ های انرژی بزرگی رو پشت سر گذاشت.

اضافه کنم که میزان مصرف انرژی مغز رو میشه بر اساس مقدار انرژی‌ که سوزانده میشه تخمین زد. وات واحد توانه، بنابراین میشه اون رو بر اساس میزان مصرف ATP (مطلب قبلی) در یک بازه‌ی زمانی محاسبه و به وات تبدیل کرد.

https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2023.1240653/full
ایران تسلیت🖤
#موقت

🔴 هشدار امنیتی
مفهوم «فاین‌تیون» یا fine-tuning فقط توی دیپ‌لرنینگ نیست؛ توی جنگ‌ها هم کاربرد داره.
وقتی دشمن فیلم‌ اصابت موشک‌ها رو ببینه، می‌تونه ازشون برای بهبود دقت حملات بعدی استفاده کنه — دقیق‌تر بزنه.
این یادگیری از خطاها، به نفع دشمن تموم می‌شه.
⚠️ لطفاً به‌هیچ‌وجه فیلم یا تصویر از محل اصابت موشک منتشر نکنید.
#موقت

دوستان و مخاطبین محترم ساکن ایران حفظ آرامش روانی در رویداد های این چنینی بسیار حائز اهمیته، خصوصا قرنی که ما در اون زندگی میکنیم که شبکه های اجتماعی به مدد هوش مصنوعی میتونن واقعیت ها رو به سادگی وارونه جلوه بدن.

گروه های موجود در شبکه های اجتماعی برای جذب مخاطب هر کاری انجام میدن عده ای وضعیت رو نرمال و گروهی اوضاع رو به صورت وخیم گزارش میدن، هر دو گروه در حال غلو کردن هستند. در دل بحران‌ ها و جنگ‌ های روایت‌ محور، آنچه به‌ نام «واقعیت» تجربه میشه، بیش از آنکه بازتابی از جهان بیرون باشه، بازسازی‌ درون مغز هاست.

درک ما از جهان نه بر پایه‌ داده‌ های خام حسی، بلکه بر پایه‌ مدل‌ های پیش‌ بینی‌ کننده مغز شکل می‌گیره. مغز دائما حدس میزنه که قراره چه چیزی ببینه، بشنوه یا احساس کنه، و تنها اون بخش از داده‌ها رو پردازش می‌کنه که با پیش‌ بینیش همخوانی نداره.

یعنی بیشتر آنچه "می‌بینیم"، نه نوری هست که به شبکیه می‌تابه، بلکه بازتابیه از مدل‌ های قبلی ذهن. حتی در تاریکی مطلق، وقتی هیچ ورودی حسی‌ وجود نداره، مغز نمایش رو ادامه میده.

این همون سازوکار رویا دیدنه. شب‌ ها که چشم‌ ها بستن و جهان بیرون خاموشه، نمایش ذهن آغاز می‌شه، گاهی دقیق‌ تر، پرجزئیات‌ تر و رنگین‌ تر از واقعیت روزمره.

اما در این بین، ورود هوش مصنوعی به میدان جنگ ادراک، مسئله رو بحرانی‌ تر میکنه. AI نه تنها داده می‌ سازه، بلکه داستان می‌ سازه. تصاویر جعلی، خبرهای ساختگی، و روایاتی که با مهارت به مدل‌ های پیش‌ فرض ذهن ما تزریق میشن، نه برای متقاعد کردن ما، بلکه برای «پیش‌ بینی شدن» در معماری مغزمون.

واقعیت، دیگه اون چیزی نیست که می‌ بینی، بلکه چیزیه که مغزت انتظار داره ببینه و اگه هوش مصنوعی این انتظارات رو بنویسه، دیگه چه کسی واقعیت رو کنترل می‌ کنه.

مراقب آرامش روانی خودتون و خانوادتون باشید
Tensorflow(@CVision)
نقدی که من به مدل های زبانی در این پست داشتم اینه که برای ساخت مدل جهانی واقعی، باید فراتر از زبان صرف بریم و به مفاهیم دیگه ای مانند منطق، تجربه‌ فیزیکی، و نشونه‌ های اجتماعی توجه کنیم به نظر من توانایی استفاده‌ درست و روان از زبان، الزاما به معنای درک عمیق…
 توی این پست در پاسخ در جواب به نقد یکی از مخاطبین گفتم که مدل‌های مبتنی بر زبان (مانند chatgpt) نمیتونن درک واقعی انسان از جهان رو بازسازی کنن، چرا که زبان تنها نشانه‌ هایی آماری هست و ریشه در ساختار فیزیکی نداره. در واقع مدل های زبانی به جهان واژگان تکیه دارن و اونو به غار افلاطون تشیبه کردم.

حالا Fei‑Fei Li به دنبال ساختارشکنی در محدودیت‌ های مدل‌ های زبانی هست. ایشون به همراه تیمش مشغول توسعه نوع جدیدی از مدل‌ های هوش مصنوعی به نام «world models» هست، مدل هایی که بتونن با درک فضایی سه‌ بعدی استدلال، برنامه ریزی و خودشون رو با محیط وفق بدن.

هدف این مدلها ارتقاء هوشمندی از سطح متن و واژه به سطح واقعی و محیط فیزیکی و در نهایت تبدیل به گام بعدی هوش مصنوعی بشر محور هست.

در واقع ایشون در تلاشه تا مدل هوش مصنوعی‌ بسازه که شبیه به مدل ذهنی انسانه، تا یه درک واقعی و انتزاعی از جهان داشته باشه، نه فقط از روی آمار و متن، بلکه بر پایه‌ درک سه‌بعدی و علیت (cause-effect).

https://www.businessinsider.com/world-model-ai-explained-2025-6
Tensorflow(@CVision)
 توی این پست در پاسخ در جواب به نقد یکی از مخاطبین گفتم که مدل‌های مبتنی بر زبان (مانند chatgpt) نمیتونن درک واقعی انسان از جهان رو بازسازی کنن، چرا که زبان تنها نشانه‌ هایی آماری هست و ریشه در ساختار فیزیکی نداره. در واقع مدل های زبانی به جهان واژگان تکیه…
بیایم به یه شکل دیگه نگاه کنیم تا حالا به این موضوع فکر کردین که چطور یه موش حتی اگر در تمام عمرش موش دیگه ای رو ندیده باشه، برای بچه‌ هاش لونه میسازه؟

یا موارد مشابه دیگه مثل یه عنکبوت که تار می‌ تنه، یه کرم ابریشم که پیله میسازه، و یا یه سگ آبی که سد میسازه و ... حتی اگه هیچ‌ کدوم از همنوعانشون هرگز به اونها نشون نداده باشن که چطور این کارهای پیچیده رو انجام میدن.

این سوالات به این معنا نیست که این رفتارها آموخته‌ شده نیستن، بلکه به این معناست که این حیوانات اونها رو در طول یه عمر نیاموختن، بلکه در طول هزاران نسل یاد گرفتن.

تکامل رفتارهای حیوانی در واقع یک فرایند یادگیری محسوب میشه، اما این یادگیری توسط مجموعه گونه انجام میگیره، نه توسط یک فرد، و نتایج این فرایند یادگیری در DNA کد گذاری شدن.

در واقع موجودات زنده مدل‌هایی درونی از جهان و رفتار مناسب در اون رو دارن، که از طریق تکامل شکل گرفته. این مدل‌ ها ممکنه آگاهانه نباشن، ولی وجود دارن و به حیوان اجازه میدن که بدون تجربه قبلی رفتارهایی مؤثر انجام بدن.

در واقع بخش مهمی از هوش، از طریق تجربه جمعی شکل می‌گیره، نه صرفاً تجربه شخصی. مدل‌ های هوش مصنوعی هم باید مدل‌های درونی از جهان داشته باشن، نه فقط آماری و مبتنی بر زبان.
Channel photo updated
🚀 معرفی دستیار صوتی هوشمند 11ai از ElevenLabs

کمپانی ElevenLabs با معرفی 11ai، دستیار صوتی هوشمند خود، گام بزرگی در دنیای هوش مصنوعی برداشته است. این دستیار که بر پایه فناوری Conversational AI و Model Context Protocol (MCP) توسعه یافته، نه تنها به سوالات پاسخ می‌دهد، بلکه می‌تواند اقدامات عملی در ابزارهای روزمره شما انجام دهد. همه تنها با دستورات صوتی! این قابلیت‌ها 11ai را از دستیارهای سنتی مثل الکسا یا گوگل اسیستنت متمایز می‌کند .

🔧 فناوری پیشرفته و یکپارچه‌سازی با ابزارهای کاری و روزمره
دستیار 11ai از MCP برای اتصال به ابزارهایی گوناگون استفاده می‌کند و امکان ایجاد گردش‌های کاری سفارشی را فراهم می‌سازد. همچنین با پشتیبانی از 70+ زبان و تشخیص خودکار زبان، تعاملی طبیعی و چندزبانه را ممکن می‌سازد. این دستیار حتی می‌تواند با لحن‌های مختلف (مثل خنده، زمزمه یا هیجان) صحبت کند، که آن را برای استفاده در محیط‌های حرفه‌ای و شخصی ایده‌آل می‌کند .

این دستیار هم‌اکنون در فاز آلفا قرار دارد و کاربران می‌توانند به صورت رایگان آن را امتحان کنند.

https://elevenlabs.io/blog/introducing-11ai
2025/06/25 19:40:11
Back to Top
HTML Embed Code: