tgoop.com/llm_huggingface/110
Create:
Last Update:
Last Update:
انقلاب سامسونگ در هوش مصنوعی: مدل ۷ میلیونی که غولها را شکست داد
فرانسیس شوله اینجا، این رو بازنشر کرده بود:
https://fixupx.com/jacksonatkinsx/status/1975556245617512460?s=12
وقتی این مقاله را خواندم مغزم هنگ کرد.
یک مدل خیلی کوچک با تنها ۷ میلیون پارامتر همین الان در آزمونهای استدلال روی هر دو مجموعه ARG-AGI 1 و ARC-AGI 2، از DeepSeek-R1، Gemini 2.5 pro و o3-mini جلو زد.
اسمش Tiny Recursive Model (TRM) از سامسونگ است.
چطور مدلی که ۱۰٬۰۰۰ برابر کوچکتر است میتواند باهوشتر باشد؟
نحوه کارش اینطور است:
نوشتن یک پاسخ اولیه: برخلاف یک مدل زبان بزرگ (LLM) که کلمهبهکلمه تولید میکند، TRM ابتدا یک «پیشنویس» سریع و کامل از راهحل تولید میکند. این را میتوان اولین حدس خام آن دانست.
خلق یک «اسکراچپد (scratchpad)»: سپس فضایی جداگانه برای افکار درونیاش میسازد — یک «اسکراچپد» استدلال نهفته. اینجا است که جادوی واقعی رخ میدهد.
خودانتقادی شدید: مدل وارد یک حلقهٔ درونی شدید میشود. پیشنویسش را با مسئلهٔ اصلی مقایسه میکند و بارها و بارها (۶ بار پشتسرِ هم) استدلالش را در اسکرچپد تصحیح میکند و از خودش میپرسد «آیا منطق من درست است؟ خطاها کجا هستند؟»
بازنویسی پاسخ: پس از این «تفکر» متمرکز، از منطق بهبود یافتهٔ موجود در اسکرچپد استفاده میکند تا یک پیشنویس کاملاً جدید و بسیار بهتر از پاسخ نهایی بسازد.
تکرار تا رسیدن به اطمینان: کل فرایند — پیشنویس، تفکر، اصلاح — تا ۱۶ بار تکرار میشود. هر چرخه مدل را به حلِ مسئلهای صحیحتر و منطقیتر نزدیکتر میکند.
چرا این مهم است:
رهبران کسبوکار: این همان چیزی است که برتری الگوریتمی (algorithmic advantage) به نظر میرسد. در حالی که رقبا برای مقیاسبندی خام هزینههای عظیمی در فرایند inference میپردازند، یک مدل هوشمندتر و کارآمدتر میتواند عملکرد بهتر را با کسری از هزینه ارائه دهد.
پژوهشگران: این تأیید مهمی برای ایدههای نوروسیمبولیک (neuro-symbolic) است. توانایی مدل در «تفکر» بازگشتی (recursively) پیش از «عمل»، نشان میدهد که معماری، نه صرفاً مقیاس، میتواند محرک اصلی قابلیت استدلال باشد.
عملیکنندگان: استدلال در سطح SOTA (state-of-the-art) دیگر پشت خوشههای GPU میلیارد دلاری قفلشده نیست. این مقاله یک نقشهراه بسیار کارآمد و کمپارامتر برای ساخت سامانههای استدلالی (reasoners) تخصصی فراهم میکند که میتوانند در هر جا اجرا شوند.
این فقط کوچکسازیِ مقیاس نیست؛ این یک روش کاملاً متفاوت و هدفمندتر برای حل مسائل است.
@cvision
@llm_huggingface
BY آموزش LLM و VLM

Share with your friend now:
tgoop.com/llm_huggingface/110