tgoop.com/matlabtips/1741
Last Update:
🔵 شگفتی (surprise) و مدل های زبانی 🔵
در فیلم زندگی چاک در صحنه ای قهرمان داستان، یک حسابدار عادی، در حال قدمزدن در خیابان است که ناگهان به یک طبل زن (drummer) برمیخورد. بیهیچ مقدمهای در میان خیابان شروع به رقصیدن با آن میکند. این لحظهی خودانگیخته چنان در حافظهاش حک شد که به یکی از اصیلترین و پررنگترین تجربههای زندگیاش بدل گشت؛ تجربهای که حتی پس از آنکه ذهن فروپاشیدهاش دیگر توان به یاد آوردن نام اعضای خانوادهاش را نداشت، همچنان در او زنده ماند.
این همان جوهرهی «شگفتی» است، عنصری چنان افسونگر که در بنیان بسیاری از نظریههایی قرار دارد که به کمک آنها جهان را میشناسیم. برخلاف آنچه به نظر میآید، علم صرفا کاهشدادن عدم قطعیت یا زدودن شگفتیها نیست، بلکه گاه خود آنها را پدید میآورد. فرآیند کشف، چیزی جز الهامی سرکش و گریزان از عقل متعارف نیست. شگفتیها (یا همنشینی مفاهیم بهظاهر نامرتبط) ابزارهای قیاسی (analogical tools) بیسابقهای در اختیارمان نهادهاند که به یاریشان جهان را به شیوههایی درک کردهایم که پیشتر محال مینمود. نظریهی جاذبه را در نظر بگیرید: زاییدهی پیوندی غافلگیرکننده میان مکانیک زمین و مکانیک سماوی. نیروی گرانش (کنشی از دور، چون جادویی پنهان) خود شگفتیای بنیادین بود. اما وقتی از قیاس حرف میزنیم فراتر از علم می رود و به تمام چارچوب های شناختی ما گره می خورد.
داگلاس هاستادر (Douglas R. Hofstadter) در کتابش سطوح و ذات ها: قیاس به عنوان سوخت اندیشه (Surfaces and Essences: Analogy as the Fuel and Fire of Thinking) از همانند سازی (فرآیند ساختن قیاس) به عنوان چارچوبی که اندیشه را شکل می دهد سخن می گوید او نشان می دهد ساده ترین مفاهیم از «میز» تا نظریات علمی بر اساس ایجاد «قیاس» ها ساخته شده است.زبان و استعارهها بر پایهٔ همانندسازی ساخته میشوند: ما زمان را بهصورت «فضا»، زندگی را «سفر»، و احساسات را «بالا» و «پایین» توصیف میکنیم، بیآنکه اغلب متوجه ریشهٔ آن باشیم. دقت کنید این همانند سازی ها از داخل خود زبان زاییده نمی شوند (انتظاری که گاه از مدل های زبانی داریم) بلکه از بیرون توسط کاربران زبان و محیط به آن شکل می دهد.
شگفتیها در قالب همانند سازی ها فراتر از علم، در شعر، هنر و فلسفه نیز حضور دارند. حتی خیزش الگوهای محاسباتی همچون مدلهای زبانی بزرگ (LLM) نیز بازتاب همین پدیده است. باید دقت کرد که این مدل ها شاید قیاس هایی که ما ایجاد کرده ایم را مدل سازی کرده باشند اما با این حال کاری که میکنند نقطهی مقابل خلاقیت است: آنها بر پایهی کاستن از شگفتی کار میکنند. اصل آموزشیشان این است که «کمتر» از دیدن واژهی بعدی غافلگیر شوند و بدینسان معیار «پیچیدگی» یا همان پرپلکسیتی (preplexity) اندازهی فاصله (cross entropy) میان پیشبینی مدل و دادهی واقعی را پایین بیاورند. شگفت آنکه پژوهشهای اخیر نشان میدهد این مدلها حتی از انسان نیز «بهتر» پیشبینی میکنند.
اما همین بیشازحد پیشبینیپذیر بودن، محدودیت های آنها را هم آشکار میسازد. LLMها اغلب سخت بر موضوع میچسبند و مستقیم سر اصل مطلب میروند، در حالی که ارتباط انسانی سرشار از پیشبینیناپذیری است. انسانی ممکن است در میان درس ریاضی، ناگهان شوخی کند (کاری که هیچ LLMی جز به فرمان مستقیم انجام نمیدهد.) در گفتوگوی انسانی، واژهی بعدی تنها تابع واژههای پیشین نیست، بلکه محصول برهمکنش نشانههای گوناگون حسی و زمینهای است: آنچه میبینیم، میشنویم، میچشیم، یا حتی آنچه همان صبح خوردهایم. انتظار داشتن از مدلی متنی که بدون این سیگنالها همچون انسان عمل کند، انتظاری گزاف است.
BY MatlabTips

Share with your friend now:
tgoop.com/matlabtips/1741