tgoop.com/cvision/4114
Last Update:
شاید بهتره که بپذیریم چیزی بنام مدلهای استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ای بیشتری در اختیار خود قرار میدن.
حلقه استدلال معادل اینه که به یک مدل زبانی معمولی بگیم «پاسخت رو اصلاح کن» یا «زمینه بیشتری از این نوع خاص رو در نظر بگیر».
در واقع چیزی بنام استدلال (reasoning) وجود نداره، همیشه صرفا راهکاری بوده برای کاهش پاسخ های ساختگی(hallucination) یا افزودن خودکار اطلاعات زمینه ای ، نه چیز دیگه.
شرکتهای بزرگ یکی از ترفندهای ابتدایی مهندسی پرامپت رو که سالها پیش بوجود اومده بود، در مدل هاشون تعبیه کردن، و در نهایت برای سود های کلان اون رو برند کردن.
قبلاً اینجا به صورت مفصل دربارش نوشتم:
https://www.tgoop.com/cvision/3770
BY Tensorflow(@CVision)
Share with your friend now:
tgoop.com/cvision/4114