tgoop.com/pythonwithmedev/574
Last Update:
🧠 هوش مصنوعی عمومی: «بودن یا نبودن، مسئله این است» [بخش ۱]
انتشار اخیر اپل با عنوان «توهم تفکر» یکی از دشوارترین بحثهای علمی اخیر در حوزه هوش مصنوعی را برانگیخته و طنین گستردهای در جامعه متخصصان ایجاد کرده است. 🤖 همانطور که به یاد داریم، محققان یادگیری ماشین و دانشمندان اپل سعی کردند شواهدی از محدودیتهای اساسی مدلهای هوش مصنوعی مدرن (LRM) ارائه دهند.
بیایید سعی کنیم تمام استدلالهای موافق و مخالف را بررسی کنیم.
🍏موضع اپل:
پارادوکس این است که هنگام حل مسائل در معماهایی که پیچیدگی آنها به تدریج افزایش مییابد (به عنوان مثال، معمای «عبور از رودخانه» با افزایش تعداد شرکتکنندگان)، LRMها به اوج عملکرد خود میرسند و پس از آن عملکرد به حالت ثابت نمیرسد، بلکه سقوط میکند. یعنی «فروپاشی در استدلال» رخ میدهد و مدلها «تسلیم/تسلیم میشوند». آنها شروع به استفاده از منابع محاسباتی (توکنهایی برای «تفکر») به طور قابل توجهی کمتری میکنند و در عین حال به طور سیستماتیک در حل مسائل شکست میخورند. بر اساس منطق محققان، اگر LRMها واقعاً قادر به «استدلال» باشند، تعداد توکنهای مورد استفاده متناسب با پیچیدگی مسئله افزایش مییابد تا زمانی که هوش مصنوعی به یک محدودیت فنی (سقف) برسد.
به عبارت ساده، دانشآموزی یک سؤال غیرقابل حل دریافت میکند، به آن نگاه میکند و متوجه میشود که نمیتواند از پس آن برآید. او وحشت میکند و چند فرمول نادرست را در خط اول مینویسد و سپس یک برگه خالی به معلم تحویل میدهد.
به گفته اپل، ما فقط یک خطا نمیبینیم، بلکه شاهد یک نقص اساسی در مدلهای هوش مصنوعی در معماری آنها هستیم که از طریق «معماهای استریل» کنترلشده آشکار شده است. علاوه بر این، ادعا میشود که LRMها مکانیسم تفکر مقیاسپذیر ندارند. بله، LRMها در کارهای روزمره، نوشتن متن و حل مسائل منطقی مختلف در فواصل کوتاه و متوسط کمک میکنند، اما فاقد «هوش» هستند. مدلهای هوش مصنوعی = تقلیدکنندگان و دستیاران عالی، اما به دلیل محدودیتهای اساسی خود نمیتوانند با نوآوری کار کنند و چیز جدیدی خلق کنند.
😱 منتقدان:
لاوسن از Open Philanthropy و Anthropic (🈁Claude به عنوان نویسنده همکار؟) سعی میکند یک استدلال متقابل ارائه دهد: "فروپاشی استدلال" تا حد زیادی با عبور از محدودیت توکن توضیح داده میشود. این مدل "تسلیم نمیشود" بلکه به سادگی در مقابل سقف فنی قرار میگیرد. با یک محدودیت فنی سخت برخورد میکند.
لاوسن به درستی در مورد استفاده از معماهای غیرقابل حل به اپل اظهار نظر میکند. محققان اپل اسکریپت خودکار خود را طوری برنامهریزی کردند که هر پاسخی که شامل توالی حرکات به سمت راهحل (که وجود ندارد) نبود، یک شکست (نمره "صفر") در نظر گرفته میشد. به این ترتیب، آنها مدل را به دلیل نشان دادن منطق جریمه کردند. گنجاندن چنین مسائلی در آزمون و نمرهدهی نادرست به آنها، امتیاز کلی هوش مصنوعی را به طور مصنوعی کاهش داد. انتقاد لاوسن کاملاً معتبر است.
در یک مثال، لاوسن فرمولبندی مسئله را تغییر داد و از مدل هوش مصنوعی خواست که تمام مراحل (فکر کردن) را فهرست نکند، بلکه برنامهای (کد) بنویسد که خودِ مسئله را حل کند. مدلهای هوش مصنوعی که در مطالعه اپل روی ۸ تا ۱۰ دیسک در معمای برج هانوی در آزمون "شکست" خوردند، با موفقیت کدی نوشتند که مسئله را برای ۱۵ دیسک یا بیشتر حل کرد. --------------------------
منتقدان کممهارت در استدلالها، سعی کردند روی پلتفرم🦆 تمرکز توجه را از خود مطالعه، به عنوان مثال، به موقعیت بازار اپل تغییر دهند و سعی کنند شرکت را به خاطر این واقعیت که قادر به ایجاد مدلهای هوش مصنوعی خود برای مقابله با ⭕️ ChatGPT، 🈁 Claude، ❗️Gemini، ❗️ Grok نیستند، سرزنش کنند، به همین دلیل است که آنها خشمگین هستند و از LRM مدرن انتقاد میکنند. استدلال ضعیفی که هیچ ارتباط مستقیمی با خود مطالعه ندارد.
BY 🧑💻Cyber.vision🧑💻
Share with your friend now:
tgoop.com/pythonwithmedev/574