PYTHONWITHMEDEV Telegram 574
🧠 هوش مصنوعی عمومی: «بودن یا نبودن، مسئله این است» [بخش ۱]

انتشار اخیر اپل با عنوان «توهم تفکر» یکی از دشوارترین بحث‌های علمی اخیر در حوزه هوش مصنوعی را برانگیخته و طنین گسترده‌ای در جامعه متخصصان ایجاد کرده است. 🤖 همانطور که به یاد داریم، محققان یادگیری ماشین و دانشمندان اپل سعی کردند شواهدی از محدودیت‌های اساسی مدل‌های هوش مصنوعی مدرن (LRM) ارائه دهند.

بیایید سعی کنیم تمام استدلال‌های موافق و مخالف را بررسی کنیم.

🍏موضع اپل:

پارادوکس این است که هنگام حل مسائل در معماهایی که پیچیدگی آنها به تدریج افزایش می‌یابد (به عنوان مثال، معمای «عبور از رودخانه» با افزایش تعداد شرکت‌کنندگان)، LRMها به اوج عملکرد خود می‌رسند و پس از آن عملکرد به حالت ثابت نمی‌رسد، بلکه سقوط می‌کند. یعنی «فروپاشی در استدلال» رخ می‌دهد و مدل‌ها «تسلیم/تسلیم می‌شوند». آنها شروع به استفاده از منابع محاسباتی (توکن‌هایی برای «تفکر») به طور قابل توجهی کمتری می‌کنند و در عین حال به طور سیستماتیک در حل مسائل شکست می‌خورند. بر اساس منطق محققان، اگر LRMها واقعاً قادر به «استدلال» باشند، تعداد توکن‌های مورد استفاده متناسب با پیچیدگی مسئله افزایش می‌یابد تا زمانی که هوش مصنوعی به یک محدودیت فنی (سقف) برسد.

به عبارت ساده، دانش‌آموزی یک سؤال غیرقابل حل دریافت می‌کند، به آن نگاه می‌کند و متوجه می‌شود که نمی‌تواند از پس آن برآید. او وحشت می‌کند و چند فرمول نادرست را در خط اول می‌نویسد و سپس یک برگه خالی به معلم تحویل می‌دهد.

به گفته اپل، ما فقط یک خطا نمی‌بینیم، بلکه شاهد یک نقص اساسی در مدل‌های هوش مصنوعی در معماری آنها هستیم که از طریق «معماهای استریل» کنترل‌شده آشکار شده است. علاوه بر این، ادعا می‌شود که LRMها مکانیسم تفکر مقیاس‌پذیر ندارند. بله، LRMها در کارهای روزمره، نوشتن متن و حل مسائل منطقی مختلف در فواصل کوتاه و متوسط ​​کمک می‌کنند، اما فاقد «هوش» هستند. مدل‌های هوش مصنوعی = تقلیدکنندگان و دستیاران عالی، اما به دلیل محدودیت‌های اساسی خود نمی‌توانند با نوآوری کار کنند و چیز جدیدی خلق کنند.

😱 منتقدان:

لاوسن از Open Philanthropy و Anthropic (🈁Claude به عنوان نویسنده همکار؟) سعی می‌کند یک استدلال متقابل ارائه دهد: "فروپاشی استدلال" تا حد زیادی با عبور از محدودیت توکن توضیح داده می‌شود. این مدل "تسلیم نمی‌شود" بلکه به سادگی در مقابل سقف فنی قرار می‌گیرد. با یک محدودیت فنی سخت برخورد می‌کند.

لاوسن به درستی در مورد استفاده از معماهای غیرقابل حل به اپل اظهار نظر می‌کند. محققان اپل اسکریپت خودکار خود را طوری برنامه‌ریزی کردند که هر پاسخی که شامل توالی حرکات به سمت راه‌حل (که وجود ندارد) نبود، یک شکست (نمره "صفر") در نظر گرفته می‌شد. به این ترتیب، آنها مدل را به دلیل نشان دادن منطق جریمه کردند. گنجاندن چنین مسائلی در آزمون و نمره‌دهی نادرست به آنها، امتیاز کلی هوش مصنوعی را به طور مصنوعی کاهش داد. انتقاد لاوسن کاملاً معتبر است.

در یک مثال، لاوسن فرمول‌بندی مسئله را تغییر داد و از مدل هوش مصنوعی خواست که تمام مراحل (فکر کردن) را فهرست نکند، بلکه برنامه‌ای (کد) بنویسد که خودِ مسئله را حل کند. مدل‌های هوش مصنوعی که در مطالعه اپل روی ۸ تا ۱۰ دیسک در معمای برج هانوی در آزمون "شکست" خوردند، با موفقیت کدی نوشتند که مسئله را برای ۱۵ دیسک یا بیشتر حل کرد. --------------------------

منتقدان کم‌مهارت در استدلال‌ها، سعی کردند روی پلتفرم🦆 تمرکز توجه را از خود مطالعه، به عنوان مثال، به موقعیت بازار اپل تغییر دهند و سعی کنند شرکت را به خاطر این واقعیت که قادر به ایجاد مدل‌های هوش مصنوعی خود برای مقابله با ⭕️ ChatGPT، 🈁 Claude، ❗️Gemini، ❗️ Grok نیستند، سرزنش کنند، به همین دلیل است که آنها خشمگین هستند و از LRM مدرن انتقاد می‌کنند. استدلال ضعیفی که هیچ ارتباط مستقیمی با خود مطالعه ندارد.



tgoop.com/pythonwithmedev/574
Create:
Last Update:

🧠 هوش مصنوعی عمومی: «بودن یا نبودن، مسئله این است» [بخش ۱]

انتشار اخیر اپل با عنوان «توهم تفکر» یکی از دشوارترین بحث‌های علمی اخیر در حوزه هوش مصنوعی را برانگیخته و طنین گسترده‌ای در جامعه متخصصان ایجاد کرده است. 🤖 همانطور که به یاد داریم، محققان یادگیری ماشین و دانشمندان اپل سعی کردند شواهدی از محدودیت‌های اساسی مدل‌های هوش مصنوعی مدرن (LRM) ارائه دهند.

بیایید سعی کنیم تمام استدلال‌های موافق و مخالف را بررسی کنیم.

🍏موضع اپل:

پارادوکس این است که هنگام حل مسائل در معماهایی که پیچیدگی آنها به تدریج افزایش می‌یابد (به عنوان مثال، معمای «عبور از رودخانه» با افزایش تعداد شرکت‌کنندگان)، LRMها به اوج عملکرد خود می‌رسند و پس از آن عملکرد به حالت ثابت نمی‌رسد، بلکه سقوط می‌کند. یعنی «فروپاشی در استدلال» رخ می‌دهد و مدل‌ها «تسلیم/تسلیم می‌شوند». آنها شروع به استفاده از منابع محاسباتی (توکن‌هایی برای «تفکر») به طور قابل توجهی کمتری می‌کنند و در عین حال به طور سیستماتیک در حل مسائل شکست می‌خورند. بر اساس منطق محققان، اگر LRMها واقعاً قادر به «استدلال» باشند، تعداد توکن‌های مورد استفاده متناسب با پیچیدگی مسئله افزایش می‌یابد تا زمانی که هوش مصنوعی به یک محدودیت فنی (سقف) برسد.

به عبارت ساده، دانش‌آموزی یک سؤال غیرقابل حل دریافت می‌کند، به آن نگاه می‌کند و متوجه می‌شود که نمی‌تواند از پس آن برآید. او وحشت می‌کند و چند فرمول نادرست را در خط اول می‌نویسد و سپس یک برگه خالی به معلم تحویل می‌دهد.

به گفته اپل، ما فقط یک خطا نمی‌بینیم، بلکه شاهد یک نقص اساسی در مدل‌های هوش مصنوعی در معماری آنها هستیم که از طریق «معماهای استریل» کنترل‌شده آشکار شده است. علاوه بر این، ادعا می‌شود که LRMها مکانیسم تفکر مقیاس‌پذیر ندارند. بله، LRMها در کارهای روزمره، نوشتن متن و حل مسائل منطقی مختلف در فواصل کوتاه و متوسط ​​کمک می‌کنند، اما فاقد «هوش» هستند. مدل‌های هوش مصنوعی = تقلیدکنندگان و دستیاران عالی، اما به دلیل محدودیت‌های اساسی خود نمی‌توانند با نوآوری کار کنند و چیز جدیدی خلق کنند.

😱 منتقدان:

لاوسن از Open Philanthropy و Anthropic (🈁Claude به عنوان نویسنده همکار؟) سعی می‌کند یک استدلال متقابل ارائه دهد: "فروپاشی استدلال" تا حد زیادی با عبور از محدودیت توکن توضیح داده می‌شود. این مدل "تسلیم نمی‌شود" بلکه به سادگی در مقابل سقف فنی قرار می‌گیرد. با یک محدودیت فنی سخت برخورد می‌کند.

لاوسن به درستی در مورد استفاده از معماهای غیرقابل حل به اپل اظهار نظر می‌کند. محققان اپل اسکریپت خودکار خود را طوری برنامه‌ریزی کردند که هر پاسخی که شامل توالی حرکات به سمت راه‌حل (که وجود ندارد) نبود، یک شکست (نمره "صفر") در نظر گرفته می‌شد. به این ترتیب، آنها مدل را به دلیل نشان دادن منطق جریمه کردند. گنجاندن چنین مسائلی در آزمون و نمره‌دهی نادرست به آنها، امتیاز کلی هوش مصنوعی را به طور مصنوعی کاهش داد. انتقاد لاوسن کاملاً معتبر است.

در یک مثال، لاوسن فرمول‌بندی مسئله را تغییر داد و از مدل هوش مصنوعی خواست که تمام مراحل (فکر کردن) را فهرست نکند، بلکه برنامه‌ای (کد) بنویسد که خودِ مسئله را حل کند. مدل‌های هوش مصنوعی که در مطالعه اپل روی ۸ تا ۱۰ دیسک در معمای برج هانوی در آزمون "شکست" خوردند، با موفقیت کدی نوشتند که مسئله را برای ۱۵ دیسک یا بیشتر حل کرد. --------------------------

منتقدان کم‌مهارت در استدلال‌ها، سعی کردند روی پلتفرم🦆 تمرکز توجه را از خود مطالعه، به عنوان مثال، به موقعیت بازار اپل تغییر دهند و سعی کنند شرکت را به خاطر این واقعیت که قادر به ایجاد مدل‌های هوش مصنوعی خود برای مقابله با ⭕️ ChatGPT، 🈁 Claude، ❗️Gemini، ❗️ Grok نیستند، سرزنش کنند، به همین دلیل است که آنها خشمگین هستند و از LRM مدرن انتقاد می‌کنند. استدلال ضعیفی که هیچ ارتباط مستقیمی با خود مطالعه ندارد.

BY 🧑‍💻Cyber.vision🧑‍💻


Share with your friend now:
tgoop.com/pythonwithmedev/574

View MORE
Open in Telegram


Telegram News

Date: |

Each account can create up to 10 public channels ‘Ban’ on Telegram Hui said the messages, which included urging the disruption of airport operations, were attempts to incite followers to make use of poisonous, corrosive or flammable substances to vandalize police vehicles, and also called on others to make weapons to harm police. There have been several contributions to the group with members posting voice notes of screaming, yelling, groaning, and wailing in different rhythms and pitches. Calling out the “degenerate” community or the crypto obsessives that engage in high-risk trading, Co-founder of NFT renting protocol Rentable World emiliano.eth shared this group on his Twitter. He wrote: “hey degen, are you stressed? Just let it out all out. Voice only tg channel for screaming”. Telegram desktop app: In the upper left corner, click the Menu icon (the one with three lines). Select “New Channel” from the drop-down menu.
from us


Telegram 🧑‍💻Cyber.vision🧑‍💻
FROM American