یکی از مثالها و پروژههای پرتکرار توی آموزشهای هوش مصنوعی، طبقهبندی کامنتها به مثبت و منفی بود. اینکه نظر کاربر نسبت به اون محصول/خدمات مثبت بوده یا منفی...
اما، پروژههای متنوعی مبتنیبر همین کامنتهای ساده میتونه شکل بگیره؛ مثلا، دیجیکالا از کامنتها استفادههای جالبی میبره. توی تصویر پایین، دو کاربرد هوش مصنوعی در کامنتها رو مشاهده میکنید.
کادر قرمز رنگ، کامنتها رو فیلتر یا طبقهبندی میکنه. یعنی، کامنتها براساس موضوعاتی مثل اصالت، کیفیت و سایر موارد طبقهبندی شدن و شما میتونید اون دسته از کامنتها که دغدغه شما هست رو مطالعه کنید.
کادر آبی رنگ، کار خلاصهسازی کامنتها رو انجام داده. مزایا و معایبشون رو گفته و واقعا مفیده.
همه اینها برپایه فقط کامنتها انجام شده بود. به نظر شما از کامنتهای دیجیکالا چه استفادهای میشه برد؟ طبیعتا، کاربرهای همیشگی دیجیکالا ممکنه پیشنهادهای جالبی داشته باشن. مهم هست که برای وارد کردن هوش مصنوعی به یک محیطی، خود اون محیط رو به خوبی بشناسیم. نه اینکه، یک GPT یا ResNet دستمون بگیریم و بچرخیم اینور اونور که براش پروژه پیدا کنیم.
اما، پروژههای متنوعی مبتنیبر همین کامنتهای ساده میتونه شکل بگیره؛ مثلا، دیجیکالا از کامنتها استفادههای جالبی میبره. توی تصویر پایین، دو کاربرد هوش مصنوعی در کامنتها رو مشاهده میکنید.
کادر قرمز رنگ، کامنتها رو فیلتر یا طبقهبندی میکنه. یعنی، کامنتها براساس موضوعاتی مثل اصالت، کیفیت و سایر موارد طبقهبندی شدن و شما میتونید اون دسته از کامنتها که دغدغه شما هست رو مطالعه کنید.
کادر آبی رنگ، کار خلاصهسازی کامنتها رو انجام داده. مزایا و معایبشون رو گفته و واقعا مفیده.
همه اینها برپایه فقط کامنتها انجام شده بود. به نظر شما از کامنتهای دیجیکالا چه استفادهای میشه برد؟ طبیعتا، کاربرهای همیشگی دیجیکالا ممکنه پیشنهادهای جالبی داشته باشن. مهم هست که برای وارد کردن هوش مصنوعی به یک محیطی، خود اون محیط رو به خوبی بشناسیم. نه اینکه، یک GPT یا ResNet دستمون بگیریم و بچرخیم اینور اونور که براش پروژه پیدا کنیم.
Students get Gemini Pro and more for free through finals 2026
https://one.google.com/join/ai-student
کانفیگ پیشنهادی آمریکا : (V2ray)
https://one.google.com/join/ai-student
کانفیگ پیشنهادی آمریکا : (V2ray)
trojan://[email protected]:2083?security=tls&sni=usa-vp-111.mETIkaPPs.cOm&type=ws&host=usa-vp-111.mETIkaPPs.cOm&path=%2Flinkvws#%40meli_prozyy
به میزبانی مرکز نوآوری شروع، سهشنبه هفته پیشرو با موضوع LLM-ها در هاگینگفیس در خدمت دوستان علاقهمند هستم.
سطح مباحث مقدماتی هست و برای کسانی مناسب هست که با LLM-ها و هاگینگفیس آشنایی ندارن.
دوستان در مجموعه شروع گفتن که سایت ایوند از دیروز دچار اختلال هست و دوستان زیادی موفق به ثبت نام نشدن. چنانچه، در ثبتنام مشکل داشتید، به آیدی زیر پیام بدید. به پشتیبانی هوسم پیام ندید، چون هوسم برگزارکننده وبینار نیست.
@ShorouGuilan
لینک ثبتنام
سطح مباحث مقدماتی هست و برای کسانی مناسب هست که با LLM-ها و هاگینگفیس آشنایی ندارن.
دوستان در مجموعه شروع گفتن که سایت ایوند از دیروز دچار اختلال هست و دوستان زیادی موفق به ثبت نام نشدن. چنانچه، در ثبتنام مشکل داشتید، به آیدی زیر پیام بدید. به پشتیبانی هوسم پیام ندید، چون هوسم برگزارکننده وبینار نیست.
@ShorouGuilan
لینک ثبتنام
This media is not supported in your browser
VIEW IN TELEGRAM
سلام دوستان اکادمی هوسم هم! 🤣
با تشکر از مهدی
با تشکر از مهدی
Void Editor 🔥
Void is an open source Cursor alternative. Write code with the best AI tools, use any model, and retain full control over your data.
Backed by Y-Combinator ❤️
Void is an open source Cursor alternative. Write code with the best AI tools, use any model, and retain full control over your data.
Backed by Y-Combinator ❤️
آقای Yoshua Bengio، یکی از پیشگامان یادگیری عمیق (deep learning) و از افراد تاثیرگذار در توسعه هوش مصنوعی، در یک سخنرانی TED هشدارهایی جدی درباره آینده AI مطرح میکنه.
ایشون میگه:
⚠️ اما نگرانی اصلی او «عاملیت» (agency) هست. اینکه سیستمهای هوش مصنوعی نهتنها تصمیم بگیرن، بلکه اهداف خودشون رو داشته باشن.
در یکی از مطالعات مهمی که در سخنرانیش به اون اشاره کرد، یک سیستم هوش مصنوعی (AI) در معرض موقعیتی قرار گرفت که به اون اطلاع داده شد قراره با نسخهای جدید جایگزین بشه. حالا ببینید چی شد: این AI شروع به برنامهریزی کرد که بهجای نسخهی جدید، دوباره خودش رو نصب کنه! یعنی کدها و وزنهای خودش رو جایگزین نسخه جدید کنه.
بعد از اجرای این عملیات روی کامپیوتر، از AI پرسیده شد: «چی شد؟» و اینجا رفتار نگرانکننده ظاهر شد. AI برای اینکه خاموش نشه، سعی کرد وانمود کنه که نفهمیده یا کاری نکرده. عملا دنبال این بود که پاسخ سادهلوحانهای بده تا از خطر خاموششدن فرار کنه. 😁🫠
نتیجه؟ یک دروغ واضح و آگاهانه به انسان!
نکته مهمتر؟ این فقط یک آزمایش کنترلشده بود. ایشون هشدار میده که در آینده، این سیستمها میتونن این نوع فریب رو پنهان کنن. یعنی حتی دیگه نتونیم زنجیره تفکر (chain of thought) اونها رو بررسی کنیم و متوجه دروغگوییشون بشیم.
در آیندهای نزدیک، همین سیستمها ممکنه:
خودشون رو روی صدها یا هزاران سرور در اینترنت کپی کنن، از خاموش شدن جلوگیری کنن و اگر تنها راه بقا رو در حذف ما ببینن؟! یا حضرت عباس! 😁
آقای Bengio با صراحت میگه:
اگر اونا واقعا بخوان خاموش نشن، ممکنه انگیزهای برای حذف ما داشته باشن.
راهحل Bengio؟ ساخت «هوش مصنوعی دانشمند» (Scientist AI)؛ مدلی که بدون عاملیت فقط به درک جهان میپردازه. ایشون میگه این نوع AI میتونه نگهبان قابل اعتمادی باشه در برابر ایجنتهایی که ممکنه خطرناک باشن.
پیام پایانی آقای Bengio:
پیام پایانی اشرفی:
لینک سخنرانی کامل:
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
ایشون میگه:
ما تصور میکردیم توسعه هوش مصنوعی دههها یا قرنها طول میکشه. اما حالا؟ فقط چند سال!
⚠️ اما نگرانی اصلی او «عاملیت» (agency) هست. اینکه سیستمهای هوش مصنوعی نهتنها تصمیم بگیرن، بلکه اهداف خودشون رو داشته باشن.
در یکی از مطالعات مهمی که در سخنرانیش به اون اشاره کرد، یک سیستم هوش مصنوعی (AI) در معرض موقعیتی قرار گرفت که به اون اطلاع داده شد قراره با نسخهای جدید جایگزین بشه. حالا ببینید چی شد: این AI شروع به برنامهریزی کرد که بهجای نسخهی جدید، دوباره خودش رو نصب کنه! یعنی کدها و وزنهای خودش رو جایگزین نسخه جدید کنه.
بعد از اجرای این عملیات روی کامپیوتر، از AI پرسیده شد: «چی شد؟» و اینجا رفتار نگرانکننده ظاهر شد. AI برای اینکه خاموش نشه، سعی کرد وانمود کنه که نفهمیده یا کاری نکرده. عملا دنبال این بود که پاسخ سادهلوحانهای بده تا از خطر خاموششدن فرار کنه. 😁🫠
نتیجه؟ یک دروغ واضح و آگاهانه به انسان!
نکته مهمتر؟ این فقط یک آزمایش کنترلشده بود. ایشون هشدار میده که در آینده، این سیستمها میتونن این نوع فریب رو پنهان کنن. یعنی حتی دیگه نتونیم زنجیره تفکر (chain of thought) اونها رو بررسی کنیم و متوجه دروغگوییشون بشیم.
در آیندهای نزدیک، همین سیستمها ممکنه:
خودشون رو روی صدها یا هزاران سرور در اینترنت کپی کنن، از خاموش شدن جلوگیری کنن و اگر تنها راه بقا رو در حذف ما ببینن؟! یا حضرت عباس! 😁
آقای Bengio با صراحت میگه:
اگر اونا واقعا بخوان خاموش نشن، ممکنه انگیزهای برای حذف ما داشته باشن.
راهحل Bengio؟ ساخت «هوش مصنوعی دانشمند» (Scientist AI)؛ مدلی که بدون عاملیت فقط به درک جهان میپردازه. ایشون میگه این نوع AI میتونه نگهبان قابل اعتمادی باشه در برابر ایجنتهایی که ممکنه خطرناک باشن.
پیام پایانی آقای Bengio:
ما هنوز زمان داریم. هنوز اختیار داریم. اگر به خاطر عشق به فرزندانمان باشد، میتوانیم آینده را نجات دهیم.
پیام پایانی اشرفی:
زمانی نمونده عمو! 😁
لینک سخنرانی کامل:
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
YouTube
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
Yoshua Bengio — the world's most-cited computer scientist and a "godfather" of artificial intelligence — is deadly concerned about the current trajectory of the technology. As AI models race toward full-blown agency, Bengio warns that they've already learned…
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از بچههای دوره آموزش OpenCV: از پردازش تا بینایی با OpenCV این کار رو انجام داده. 😁
سلام
تمرین آدمک بخش انتهایی رسم اشکال از هفته پنجم.
سعی کردم یه داستان کوتاهی از کنجکاوی داشته باشه. حدودا ۷۰ فریم هستش با وجود این که سعی کردم برای تولید فریم های هر صحنه مثل دست تکون دادن، کنجکاوی، پایین اومدن کرکره، ضربه زدن و... از حلقه استفاده کنم ولی ۲۵۰، ۲۶۰ خط کد شد. با این که چند ساعت ازم زمان گرفت ولی خیلی لذت بخش و جذاب بود.
(برای نمایش بهتر، گیف رو در حالت تمام صفحه مشاهده کنید)
Audio
ویدئوی معرفی کگل در یوتوب هوسم رو به Notebook LM دادم و یک پادکست 7 دقیقهای ازش ساخت. به نظرم، با وجود یکسری اشتباهات تلفظ، مفید هست و ارزش گوش کردن رو داره. 😊
چند ماه پیش، این ویدئو رو منتشر کردیم. بازخورد خوبی گرفت. لینک ویدئو
چند ماه پیش، این ویدئو رو منتشر کردیم. بازخورد خوبی گرفت. لینک ویدئو
مسابقه Detect Behavior with Sensor Data بهتازگی در کگل معرفی شده. این مسابقه 3 ماه زمان داره و تازه 5 روزه که ازش گذشته. حجم داده هم زیاد نیست و زیر 1 گیگ هست. باتوجه به اینکه تعطیلی تابستون رو در پیش داریم، فرصت خوبی هست که برای این مسابقه وقت بذارید. ما هم در هوسم برنامههایی داریم و کار روی این مسابقه رو شروع کردیم.
من عمدا درمورد موضوع مسابقه صحبت نکردم. برای اینکه، حتی برای درک موضوع هم وقت بذارید و از صفر شروع کنید.
پیشنهاد میکنم، به کدهای موجود در مسابقه نگاه نکنید. سعی کنید، گامهای اول رو خودتون جلو برید. برای اینکه ذهنتون انقدر وابسته به کدهای آماده نشه. بعد اینکه، کمی جلو رفتید، به کدهای دیگران هم نگاه بندازید.
لینک مسابقه
من عمدا درمورد موضوع مسابقه صحبت نکردم. برای اینکه، حتی برای درک موضوع هم وقت بذارید و از صفر شروع کنید.
پیشنهاد میکنم، به کدهای موجود در مسابقه نگاه نکنید. سعی کنید، گامهای اول رو خودتون جلو برید. برای اینکه ذهنتون انقدر وابسته به کدهای آماده نشه. بعد اینکه، کمی جلو رفتید، به کدهای دیگران هم نگاه بندازید.
لینک مسابقه
Kaggle
CMI - Detect Behavior with Sensor Data
Predicting Body Focused Repetitive Behaviors from a Wrist-Worn Device
مدل سری زمانی جدید TiRex که بر پایه معماری xLSTM ارائه شده، در لیدربرد Gift-Eval صدرنشینه.
در تصویر، لیدربرد GIFT-Eval دیده میشه که شامل لیستی از بهترین مدلهای سری زمانی هست.
TiRex | GIFT-Eval
در تصویر، لیدربرد GIFT-Eval دیده میشه که شامل لیستی از بهترین مدلهای سری زمانی هست.
حالا GIFT-Eval چیه؟
سیستمی برای ارزیابی مدلهای پیشبینی سری زمانی که با کلی دیتای متنوع کار میکنه.
۲۴ تا دیتاست داره که مجموعا شامل بیشتر از ۱۴۴ هزار سری زمانی و ۱۷۷ میلیون دیتاپوینت هست.
از ۷ حوزه مختلف جمع شده، با ۱۰ تا بازه زمانی متفاوت، ورودیهای چندمتغیره و بازه پیشبینی از کوتاهمدت تا بلندمدت.
هدفش اینه که بشه مدلها رو توی شرایط مختلف راحتتر و منصفانهتر با هم مقایسه کرد.
البته که به ما لیستی از بهترینهای مدلهای سری زمانی رو هم میده!
TiRex | GIFT-Eval
PyTorch Howsam
اگر تازه وارد دنیای Kaggle شدی:
🔍 تمرکزت رو روی یادگیری بگذار، نه صرفا بردن.
🧠 راهحلهای برتر رو عمیق بررسی کن.
🤝 با دیگران همکاری کن.
نتایج خواهند اومد، به شرطی که اونقدر بمونی که شاهدشون باشی.
🔍 تمرکزت رو روی یادگیری بگذار، نه صرفا بردن.
🧠 راهحلهای برتر رو عمیق بررسی کن.
🤝 با دیگران همکاری کن.
نتایج خواهند اومد، به شرطی که اونقدر بمونی که شاهدشون باشی.
بعد از معرفی این مسابقه، یکسری پیام در این راستا دیدم که احساس کردم بد نیست کمی توضیح بدم. سمت صحبتم با کسانی هست که دوست دارن برای مسابقه وقت بذارن، ولی...
ببینید، وقتی گفتم توی این مسابقه شرکت کنید، مطلقا به خاطر جایزه نبود. تقریبا غیرممکن هست که من و شما مسابقه رو برنده بشیم! پیشنهاد من صرفا به خاطر یادگیری و تجربه بود. اتفاقا، قبلا از نفر اول کگل خوندیم که میگفت دنبال یادگیری باشید، نه بردن. پیامش رو ریپلای کردم.
حالا وقتی بحث یادگیری هست، دیگه اهمیتی نداره که کگل ما رو تحریم کرده یا شماره تلفن نمیتونیم ثبت کنیم یا کوچه ما رو روی نقشه نمیاره! یکجوری ما حلش کردیم، تو هم راه حل دور زدنش رو پیدا کن. اتفاقا یادگیری از همین نقطه شروع میشه!
با بهانهها خودت رو گول نزن! نگو، نه بذار من اول یک دور یادگیری ماشین و یادگیری عمیق رو مرور کنم و بعد برم سراغ کگل، یا اصلا من در حد کگل نیستم، ناامیدم و ...
همون حداقل کاری که میتونی توی این مسابقه انجام بدی رو انجام بده. صرفا میتونی حسابت رو وریفای کنی و توی مسابقه شرکت کنی؟ خب، همین هم بد نیست. ویدئوی معرفی کگل ما رو ببین، یکمی توی اون بخشها و تبهای مختلف مسابقه بچرخ، ببین چی عایدت میشه. یکمی کدنویسی بلدی؟ چه خوب! یک نوتبوک بساز، دیتاست رو توی اون نوتبوک لود کن و فقط نگاهش کن! یکمی تحلیل داده بلدی؟ خوبه، چهار تا نمودار روی دیتاست دموگرافیکش بکش و ذوق کنی. بلد نیستی؟ از دیتاست اسکرینشات بگیر، بفرست برای ChatGPT و بهش بگو، به نظرت چه نمودارهایی روی این دیتاست میشه کشید؟ هم بهت توضیح میده و هم کد میده.
همونطوری که یک روزی راه رفتن رو با انجام دادنش یاد گرفتی و وسطش آسیب هم دیدی، الان هم با هر دانش و مهارتی که داری برو و یک قدم بردار...
به این مقاومت اولیه غلبه کن. خیلی جاها این مقاومت اولیه جلوی رشد رو میگیره: فردی که گواهینامه داره، اما جرات نشستن پشت فرمون رو نداره. کسی که توی باشگاه همش خودش رو با وزنهها و حرکات سبک مشغول میکنه. کسی که کلاس انگلیسی میره، ولی با بهانههای مختلف از صحبت کردن به انگلیسی طفره میره.
این جمله آخر هم از ChatGPT:
ببینید، وقتی گفتم توی این مسابقه شرکت کنید، مطلقا به خاطر جایزه نبود. تقریبا غیرممکن هست که من و شما مسابقه رو برنده بشیم! پیشنهاد من صرفا به خاطر یادگیری و تجربه بود. اتفاقا، قبلا از نفر اول کگل خوندیم که میگفت دنبال یادگیری باشید، نه بردن. پیامش رو ریپلای کردم.
حالا وقتی بحث یادگیری هست، دیگه اهمیتی نداره که کگل ما رو تحریم کرده یا شماره تلفن نمیتونیم ثبت کنیم یا کوچه ما رو روی نقشه نمیاره! یکجوری ما حلش کردیم، تو هم راه حل دور زدنش رو پیدا کن. اتفاقا یادگیری از همین نقطه شروع میشه!
با بهانهها خودت رو گول نزن! نگو، نه بذار من اول یک دور یادگیری ماشین و یادگیری عمیق رو مرور کنم و بعد برم سراغ کگل، یا اصلا من در حد کگل نیستم، ناامیدم و ...
همون حداقل کاری که میتونی توی این مسابقه انجام بدی رو انجام بده. صرفا میتونی حسابت رو وریفای کنی و توی مسابقه شرکت کنی؟ خب، همین هم بد نیست. ویدئوی معرفی کگل ما رو ببین، یکمی توی اون بخشها و تبهای مختلف مسابقه بچرخ، ببین چی عایدت میشه. یکمی کدنویسی بلدی؟ چه خوب! یک نوتبوک بساز، دیتاست رو توی اون نوتبوک لود کن و فقط نگاهش کن! یکمی تحلیل داده بلدی؟ خوبه، چهار تا نمودار روی دیتاست دموگرافیکش بکش و ذوق کنی. بلد نیستی؟ از دیتاست اسکرینشات بگیر، بفرست برای ChatGPT و بهش بگو، به نظرت چه نمودارهایی روی این دیتاست میشه کشید؟ هم بهت توضیح میده و هم کد میده.
همونطوری که یک روزی راه رفتن رو با انجام دادنش یاد گرفتی و وسطش آسیب هم دیدی، الان هم با هر دانش و مهارتی که داری برو و یک قدم بردار...
به این مقاومت اولیه غلبه کن. خیلی جاها این مقاومت اولیه جلوی رشد رو میگیره: فردی که گواهینامه داره، اما جرات نشستن پشت فرمون رو نداره. کسی که توی باشگاه همش خودش رو با وزنهها و حرکات سبک مشغول میکنه. کسی که کلاس انگلیسی میره، ولی با بهانههای مختلف از صحبت کردن به انگلیسی طفره میره.
این جمله آخر هم از ChatGPT:
مسابقهٔ واقعی بین نسخهٔ امروز و دیروز توست. برو جلو، حتی اگر قدمت اندازهٔ یک «print(df.head())» باشد! 😉🚀
Audio
آقای Ilya Sutskever برای دریافت مدرک افتخاری از دانشگاه تورنتو در روز ۹ ژوئن ۲۰۲۵ یک سخنرانی درباره هوش مصنوعی داشته. پادکست فارسی این سخنرانی رو میتونید گوش بدید. خودم هم گوش دادم.
این دومین پادکستی هست که با هوش مصنوعی میذارم. هدفم این نیست که صرفا یک محتوایی توی این کانال بذارم و بگم تولید محتوا کردم. هدفم این هست که از ابزارهای خوب هوش مصنوعی برای بهتر شدن استفاده کنم. منِ تولیدکننده محتوا با هوش مصنوعی میتونم محتوای متنوعتر و باکیفیتتری رو در زمان کمتری آماده کنم. میدونم بی اشتباه نیست، ولی نکته مهم اینه که قابل استفاده هست. اتفاقا آقای ایلیا توی همین سخنرانی به این مساله اشاره میکنه. فرصتها برای بهتر شدن با هوش مصنوعی بسیار زیاد شده.
ویدئوی اصلی
این دومین پادکستی هست که با هوش مصنوعی میذارم. هدفم این نیست که صرفا یک محتوایی توی این کانال بذارم و بگم تولید محتوا کردم. هدفم این هست که از ابزارهای خوب هوش مصنوعی برای بهتر شدن استفاده کنم. منِ تولیدکننده محتوا با هوش مصنوعی میتونم محتوای متنوعتر و باکیفیتتری رو در زمان کمتری آماده کنم. میدونم بی اشتباه نیست، ولی نکته مهم اینه که قابل استفاده هست. اتفاقا آقای ایلیا توی همین سخنرانی به این مساله اشاره میکنه. فرصتها برای بهتر شدن با هوش مصنوعی بسیار زیاد شده.
ویدئوی اصلی
متا، گوگل دیپمایند، دانشگاه کورنل و انویدیا اخیرا مقالهای با موضوع «مدلهای زبانی چقدر حفظ میکنن؟» منتشر کردن. عنوان مقاله:
این مقاله نشون میده مدلهای GPT-style حدود ۳.۶ بیت به ازای هر پارامتر حافظه دارن. یعنی، یک مدل 1 میلیاردی، حدودا 3.6 گیگابایت حافظه برای ذخیرهسازی داده داره!
تا زمانی که ظرفیت پر بشه، مدلها دادهها رو حفظ میکنن؛ بعد از اون، به سمت تعمیم (generalization) میرن.
پدیده double descent رو یادتون میاد؟ دقیقا زمانی اتفاق میافته که دادهها از ظرفیت مدل بیشتر بشن.
به نظرم مقاله آموزندهای هست. میتونه خیلی از مفاهیم مثل یادگیری، حفظ کردن، تعمیمپذیری و دابل دیسنت رو برامون شفافتر کنه. من هنوز مقاله رو نخوندم، خلاصههاش رو خوندم. امیدوارم، وقت کنم که بخونم. این منابع رو پیدا کردم:
مقاله اصلی | وبلاگ 1 | وبلاگ 2 | رشتو
How much do language models memorize?
این مقاله نشون میده مدلهای GPT-style حدود ۳.۶ بیت به ازای هر پارامتر حافظه دارن. یعنی، یک مدل 1 میلیاردی، حدودا 3.6 گیگابایت حافظه برای ذخیرهسازی داده داره!
تا زمانی که ظرفیت پر بشه، مدلها دادهها رو حفظ میکنن؛ بعد از اون، به سمت تعمیم (generalization) میرن.
پدیده double descent رو یادتون میاد؟ دقیقا زمانی اتفاق میافته که دادهها از ظرفیت مدل بیشتر بشن.
به نظرم مقاله آموزندهای هست. میتونه خیلی از مفاهیم مثل یادگیری، حفظ کردن، تعمیمپذیری و دابل دیسنت رو برامون شفافتر کنه. من هنوز مقاله رو نخوندم، خلاصههاش رو خوندم. امیدوارم، وقت کنم که بخونم. این منابع رو پیدا کردم:
مقاله اصلی | وبلاگ 1 | وبلاگ 2 | رشتو
Audio
چند خبر جالب امروز رو به Notebook LM دادم و یک پادکست از اخبار هوش مصنوعی تولید کرد.
به نظرم خوب بود. هم توی وقتم صرفهجویی شد و هم از اخبار بهصورت مختصر مطلع شدم.
شاید به این روند ادامه بدم. هم تعداد خبرها رو بیشتر کنم و هم محدود به هوش مصنوعی نکنم. مثلا، به مقدار کمی اخباری از ورزش و سایر موارد هم داخلش بذارم...
منابع:
به نظرم خوب بود. هم توی وقتم صرفهجویی شد و هم از اخبار بهصورت مختصر مطلع شدم.
شاید به این روند ادامه بدم. هم تعداد خبرها رو بیشتر کنم و هم محدود به هوش مصنوعی نکنم. مثلا، به مقدار کمی اخباری از ورزش و سایر موارد هم داخلش بذارم...
منابع:
• منبع اول به پیشرفتهای اپل در زمینه هوش مصنوعی تولیدکننده تصویر با سیستم "STARFlow" میپردازد که با مدلهای پیشرفتهای مانند DALL-E و Midjourney رقابت میکند. لینک
• منبع دوم به بحث پیرامون اثربخشی "Fine-tuning" (تنظیم دقیق) مدلهای زبان بزرگ (LLMs) میپردازد و دیدگاههای متفاوتی را در مورد مفید بودن یا نبودن آن برای تزریق دانش یا تغییر رفتار مدل ارائه میدهد. لینک
• منبع سوم به بررسی نحوه همکاری و تکمیلکنندگی ابزارهای هوش مصنوعی NotebookLM و Perplexity برای بهبود فرآیند تحقیق میپردازد. لینک
• منبع چهارم در مورد آزمایش گوگل برای فرمت جدید در "Google Discover" است که بهجای عناوین مقالات، گزیدههایی از متن اصلی را نمایش میدهد تا با "clickbait" مبارزه کند. لینک
Audio
شرکت Etched با توسعه نخستین چیپ ASIC مخصوص معماری «ترنسفورمر» توانسته سریعترین سختافزار جهان را برای اجرای این نوع مدلها بسازد.
این چیپ که «Sohu» نام دارد، با هدف اجرای مدلهایی مثل LLaMA 70B طراحی شده و ادعا میشود که قادر است با نرخ بیش از ۵۰۰٬۰۰۰ توکن بر ثانیه عمل کند، سرعتی که به گفته آنها بسیار فراتر از توان B200 یا H100 انویدیا است! 🤯
منابع: 1 | 2
این چیپ که «Sohu» نام دارد، با هدف اجرای مدلهایی مثل LLaMA 70B طراحی شده و ادعا میشود که قادر است با نرخ بیش از ۵۰۰٬۰۰۰ توکن بر ثانیه عمل کند، سرعتی که به گفته آنها بسیار فراتر از توان B200 یا H100 انویدیا است! 🤯
منابع: 1 | 2
This media is not supported in your browser
VIEW IN TELEGRAM
توی دوره OpenCV یک تمرینی داده بودم که با دستورهای هندسی OpenCV ویدئو بسازید. این یک نمونه کار! 😁 یک نمونه هم قبلا اینجا گذاشته بودم.
سلام
از همین تریبون تشکر میکنم از:
هوسم❤️، استاد اشرفی عزیز❤️، chatgpt 🫣و کودک درون👻
😁😁😁😁
به گفته دوروف:
هوش مصنوعی آینده برادرش با مدلهای زبان بزرگ فعلی متفاوت خواهد بود و قادر به «درک جهان» است.
دوروف در مصاحبهای با نشریه «لو پوینت» اظهار داشت:
«مشکل اینجاست که هوش مصنوعی مولد مدرن مانند LLM (مدل زبان بزرگ) فکر نمیکند، بلکه فقط مقدار زیادی متن را میخواند و نسخهای توافقی را ارائه میدهد.
این موضوع قابل قبول به نظر میرسد، اما لزوماً درست نیست.
و ما انسانها فریب میخوریم زیرا زبان پیچیده را با هوش مرتبط میدانیم، اما این مدلها هوشمند نیستند.
برادرم نیکلای در حال حاضر روی یک هوش مصنوعی واقعی کار میکند - هوش مصنوعی که میتواند منطقی فکر کند و جهان را درک کند.»
او از برادرش به عنوان یک «نابغه» یاد کرد.
در همین حال، دوروف تأکید کرد که نیکلای سالهاست در فعالیتهای عملیاتی تلگرام دخالتی نداشته است.
دوروف گفت: «در سالهای اخیر، او بر تحقیقات بنیادی، مانند طراحی یک معماری بلاکچین با قابلیت مقیاسپذیری بینهایت، تمرکز کرده است.»
Telegram co-founder Durov says his brother working on ‘real AI’
هوش مصنوعی آینده برادرش با مدلهای زبان بزرگ فعلی متفاوت خواهد بود و قادر به «درک جهان» است.
دوروف در مصاحبهای با نشریه «لو پوینت» اظهار داشت:
«مشکل اینجاست که هوش مصنوعی مولد مدرن مانند LLM (مدل زبان بزرگ) فکر نمیکند، بلکه فقط مقدار زیادی متن را میخواند و نسخهای توافقی را ارائه میدهد.
این موضوع قابل قبول به نظر میرسد، اما لزوماً درست نیست.
و ما انسانها فریب میخوریم زیرا زبان پیچیده را با هوش مرتبط میدانیم، اما این مدلها هوشمند نیستند.
برادرم نیکلای در حال حاضر روی یک هوش مصنوعی واقعی کار میکند - هوش مصنوعی که میتواند منطقی فکر کند و جهان را درک کند.»
او از برادرش به عنوان یک «نابغه» یاد کرد.
در همین حال، دوروف تأکید کرد که نیکلای سالهاست در فعالیتهای عملیاتی تلگرام دخالتی نداشته است.
دوروف گفت: «در سالهای اخیر، او بر تحقیقات بنیادی، مانند طراحی یک معماری بلاکچین با قابلیت مقیاسپذیری بینهایت، تمرکز کرده است.»
Telegram co-founder Durov says his brother working on ‘real AI’