تو پایتون چی کارا نکنیم - بخش 2
قبلا اشارهکردیم که سعیکنید لیستها را المان به المان پر نکنید. یکی از راهکارهایی که پیشنهادشد، استفاده از generator بود. برای ساختِ generator یکی از راهکارهای کمتر شناختهشده ولی با کدزنیِ کمتر را معرفی میکنیم.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
قبلا اشارهکردیم که سعیکنید لیستها را المان به المان پر نکنید. یکی از راهکارهایی که پیشنهادشد، استفاده از generator بود. برای ساختِ generator یکی از راهکارهای کمتر شناختهشده ولی با کدزنیِ کمتر را معرفی میکنیم.
a = ( item for item in range(100_000) )😉
print(type(a)) # output: <class 'generator'>
# You can utilize `a` as a generator without the overhead of list copies.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Quaternion Capsule Networks_2.ts
16.1 MB
Quaternion CapsNets
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #معرفی_مقاله #ویدیو #capsule_network
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #معرفی_مقاله #ویدیو #capsule_network
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
دورهی آموزشی تنسورفلو و یادگیری عمیق
🎁 همراه 25% تخفیف برای 25 نفر ثبتِ نام کنندهی اول
آغاز دوره: پانزدهم بهمن ماه 1401
مدت زمانِ کلاسِ آفلاین: +30
مدت زمانِ کلاسِ آنلاین: 12
پیشنیاز دوره: آشنایی با مفاهیمِ اولیهی برنامهنویسی
اطلاعاتِ بیشتر
ــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت
🎁 همراه 25% تخفیف برای 25 نفر ثبتِ نام کنندهی اول
آغاز دوره: پانزدهم بهمن ماه 1401
مدت زمانِ کلاسِ آفلاین: +30
مدت زمانِ کلاسِ آنلاین: 12
پیشنیاز دوره: آشنایی با مفاهیمِ اولیهی برنامهنویسی
اطلاعاتِ بیشتر
ــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت
معرفی مقاله مروری برای شبکههای تبدیلکننده
استفاده از شبکههای تبدیلکننده برای دادههای مکانی نظیرِ تصویر بسیار پرکاربرد شدهاست و مقالاتِ متعددی سال قبل برای این موضوع به چاپ رسید که به مقالهی مروری Transformers in computational visual media: A survey اشاره میکنیم. مقاله، دستهبندیِ مناسبی از روشها ارایه کردهاست و به دلیلِ تازه بودن، پوششِ مناسبی از تحولاتِ اخیر ارایه کردهاست. اگر در زمینهی تبدیلکنندهها قصد فعالیت دارید، خواندن مقاله را پیشنهاد میدهیم.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #تبدیلکننده #transformer #شبکه_عصبی #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از شبکههای تبدیلکننده برای دادههای مکانی نظیرِ تصویر بسیار پرکاربرد شدهاست و مقالاتِ متعددی سال قبل برای این موضوع به چاپ رسید که به مقالهی مروری Transformers in computational visual media: A survey اشاره میکنیم. مقاله، دستهبندیِ مناسبی از روشها ارایه کردهاست و به دلیلِ تازه بودن، پوششِ مناسبی از تحولاتِ اخیر ارایه کردهاست. اگر در زمینهی تبدیلکنندهها قصد فعالیت دارید، خواندن مقاله را پیشنهاد میدهیم.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #تبدیلکننده #transformer #شبکه_عصبی #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
معرفی مقاله مروری برای شبکههای کپسولی
در ادامهی جمعبندی مقالات مهم سال قبل، در حوزه شبکههای کپسولی، مطالعهی مقالاتِ مروریِ جدیدی که در ادامه قرار میدهیم را بسیار توصیه میکنیم. مقالهی اول پیرامون استفاده از این شبکهها برای وظایف مربوط به بینایی ماشین است؛ با این حال، اگر در حوزههای دیگر نیز کار میکنید، خواندن این مقاله را پیشنهاد میدهیم. Capsule Networks for Image Classification: A Review. مقالهی بعدی Learning with Capsules: A Survey است که در آن بسیاری از مفاهیم پایه برای فهم این دست از شبکهها معرفی شدهاست.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #capsule_network #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
در ادامهی جمعبندی مقالات مهم سال قبل، در حوزه شبکههای کپسولی، مطالعهی مقالاتِ مروریِ جدیدی که در ادامه قرار میدهیم را بسیار توصیه میکنیم. مقالهی اول پیرامون استفاده از این شبکهها برای وظایف مربوط به بینایی ماشین است؛ با این حال، اگر در حوزههای دیگر نیز کار میکنید، خواندن این مقاله را پیشنهاد میدهیم. Capsule Networks for Image Classification: A Review. مقالهی بعدی Learning with Capsules: A Survey است که در آن بسیاری از مفاهیم پایه برای فهم این دست از شبکهها معرفی شدهاست.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #capsule_network #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
انتشارات packt اخیرا طی حرکتی حماسی اقدام به عملیاتی همه جانبه زده و تقریبا تمامی آثارش را به قیمت 5 دلار به فروش میرساند. ظاهرا تخفیفها تا دو روز دیگر پابرجاست. این انتشارات کتابهای خوب زیادی در زمینهی یادگیری و برنامهنویسی دارد. 😃😉
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #معرفی_منبع_آموزشی #معرفی_منبع #معرفی_کتاب
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #معرفی_منبع_آموزشی #معرفی_منبع #معرفی_کتاب
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Packt
Packt | Advance your tech knowledge | Books, Videos, Courses and more
Our library of 7,000 Books, Videos and Courses as well as free Articles, Newsletters and Conferences let you advance your skills and career.
اخیرا مقالهی دکتر هینتون در نیپس سروصدای زیادی کرد. اگر بنا به تحلیل کار صورت گرفته و وضعیت کنونی باشد، شرایط را دقیقا با سال 2017 مشابه میدانیم. زمانی که در آن سال به قول خیلیها هینتون ایدهی شبکهی کپسولی را از حالت خام سال 2011 به مرحلهی مسیریابی رساند، خیلیها سال بعدش ایدههایی که در جایجای شبکههای دیگر عصبی مورد استفاده قرار گرفته بودند را با کپسول ادغام کردند. در حال حاضر، ایده مطرحشدهی امسال خیلی ساده، پخته نیست. پیشنهاد اکید میدهیم اگر قصد دارید سایتیشن مناسب داشته باشید، حتما حتما امسال روی این کار جدید پیپر بدهید حتی اگر ایدههایتان نوآورانه ولی کم باشند و سعی کنید در ژورنالهای q3 و q3 به بالا چاپ کنید یا اگر قصد چاپ ندارید، حداقل بعد از نوشتن بلافاصله آرکایو کنید.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #هینتون #forward_forward #شبکه_عصبی #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #هینتون #forward_forward #شبکه_عصبی #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
This media is not supported in your browser
VIEW IN TELEGRAM
در مورد چهارگان یا کواترنیون پیش از این مطالبی برای معرفی مقاله قرار داده بودیم. شبکههای عصبی به صورت کلی کاری که میکنند اعمال تبدیلات خطی و غیر خطی است. چهارگان نیز روشی برای اعمال چرخش، یک تبدیل خطی، است که در آن اگر پیشفرضها رعایت شوند، زاویهی هر دو بردار پس از اعمال تبدیل حفظ میشود و فواصل تغییر نمیکنند. ایدهی استفاده از چهارگان سال پیش در مقالات مهمی مطرح شد و استفاده از آن احتمالا با توجه به پیادهسازی سادهاش، افزایش پیدا کند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #ویدیو #چهارگان #quaternion
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #ویدیو #چهارگان #quaternion
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تعدادی از کتابهای انتشارات Manning اسپانسر پیدا کرده و رایگان شدهاند. با توجه به عناوین، کتابهای How to Put Al Models Into Production و Machine Learning Engineering in Action را پیشنهاد میدهیم.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #معرفی_منبع_آموزشی #معرفی_منبع #معرفی_کتاب
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #معرفی_منبع_آموزشی #معرفی_منبع #معرفی_کتاب
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Manning Publications
Free content compliments of our partners
Manning is an independent publisher of computer books, videos, and courses.
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 20
خواندن پتنت
معمولا با مشکلی که ذکر میکنیم زمانی روبهرو میشوید که قرار باشد روشی را پیادهسازی کنید که کدش متن باز نیست. یکی از راههای درآمدزایی شرکتهای بزرگ این است که بعد از چاپ روش و پتنت کردن، از آن راه پول در میآورند و خیلی جزییات را در مقاله قرار نمیدهند. این کار در پردازش زبان طبیعی خیلی مرسوم است. حتی با وجود استفاده از مقاله، پیادهسازی ممکن است دقیقا خود روش نشود. مخصوصا اگر زمینه یادگیری باشد که با کوچکترین تغییرات در ابرپارامترها، نتایج بهکل ممکن است تغییر کند. در این شرایط، توصیه، بررسی پتنت ثبتشده است. معمولا در پتنت جزییات مناسبتری نسبت به مقاله پیرامون جزییات روش ارایه میشود. در مقالات برای جلوگیری از ایجاد خستگی در خواننده، داوران خیلی اجازهی ریز شدن نمیدهند ولی در پتنت، نویسندگان مجبورند جزییات بیشتری بیان کنند. لازم است بدانید که حتی در این شرایط هم در پتنت ممکن است مواردی ذکر نشود با این حال بیشتر از اصل مقاله ممکن است کمککننده باشد.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
خواندن پتنت
معمولا با مشکلی که ذکر میکنیم زمانی روبهرو میشوید که قرار باشد روشی را پیادهسازی کنید که کدش متن باز نیست. یکی از راههای درآمدزایی شرکتهای بزرگ این است که بعد از چاپ روش و پتنت کردن، از آن راه پول در میآورند و خیلی جزییات را در مقاله قرار نمیدهند. این کار در پردازش زبان طبیعی خیلی مرسوم است. حتی با وجود استفاده از مقاله، پیادهسازی ممکن است دقیقا خود روش نشود. مخصوصا اگر زمینه یادگیری باشد که با کوچکترین تغییرات در ابرپارامترها، نتایج بهکل ممکن است تغییر کند. در این شرایط، توصیه، بررسی پتنت ثبتشده است. معمولا در پتنت جزییات مناسبتری نسبت به مقاله پیرامون جزییات روش ارایه میشود. در مقالات برای جلوگیری از ایجاد خستگی در خواننده، داوران خیلی اجازهی ریز شدن نمیدهند ولی در پتنت، نویسندگان مجبورند جزییات بیشتری بیان کنند. لازم است بدانید که حتی در این شرایط هم در پتنت ممکن است مواردی ذکر نشود با این حال بیشتر از اصل مقاله ممکن است کمککننده باشد.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تو پایتون چی کارا نکنیم - بخش 3
یکی از موارد بسیار پر اهمیت استفاده از مقادیر پیشفرض برای ورودیهای توابع است. با این حال، لازم است حتما دقت کنید که به هیچوجه مقادیر پیشفرض را شی، مثلا لیست، قرار ندهید؛ برای مثال، از تکه کد زیر به شدت اجتناب کنید:
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
یکی از موارد بسیار پر اهمیت استفاده از مقادیر پیشفرض برای ورودیهای توابع است. با این حال، لازم است حتما دقت کنید که به هیچوجه مقادیر پیشفرض را شی، مثلا لیست، قرار ندهید؛ برای مثال، از تکه کد زیر به شدت اجتناب کنید:
def func(a=[]):اگر دو بار تابع را فراخوانی کنید، ابتدا
a.append(10)
print(a)
[10]
و بار دوم [10, 10]
را خواهید دید. در حالی که این به هیچوجه مطلوب نیست. در ورودی توقع دارید که هر بار لیست خالی برای a
در نظر گرفته شود ولی رفتار پایتون برای مقادیر پیشفرض نظیر لیست اینگونه نیست. ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تجربه کاری
اگر با شرکتهای خارج از ایران در زمینهی یادگیری کار کرده باشید، احتمالا حتما میدانید که خیلی سخت دیتا در اختیارتان قرار میدهند. دلایل متفاوتی برای این موضوع وجود دارد؛ برای مثال، اتحادیه اروپا خیلی حساس است که دادههایش در خود اروپا ذخیره شوند و حتی برای دخیرهسازی در آمریکا هم کمی سختگیری دارند. اخیرا که Midjourney خیلی سروصدا کرد و نتایج بسیار جالبی داشت، حواشی پیرامونش نیز جنجال بهپا کرد. تعدادی نقاش بابت آموزش این مدل با نقاشیهای دردسترس از سطح وب شکایت کردند و احتمال دارد که شکایتشان نرمافزار یادشده را با مشکلات متعددی روبهرو کند. این موضوع حتی میتواند برای مدلهای generative بهکل در آینده مشکلساز شود زیرا از OpenAI هم شکایت مشابهی شده است. برای تحلیل اوضاع، شاید نتوان در حال حاضر حرف خاصی زد ولی در هر صورت برای ما که به دادههای متفاوت قبل از این هم دسترسی سختی داشتیم شاید اوضاع چندان تفاوت نکند. درست است که شکایات برای دادههای public بودهاند ولی ممکن است در آینده قوانین سختگیرانهتری وضع شود که کار از راه دور در زمینهی یادگیری را در کشورهای دیگر کمی با چالش روبهرو کند. با این وجود، نمیتوان ناامید بود زیرا با توجه به شرایط کنونی نیز در زمینهی یادگیری معمولا برای دورکاری حتی در سایر کشورها نیز محدودیت دسترسی به داده همین حالا نیز وجود دارد.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#تجربه_کاری #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
اگر با شرکتهای خارج از ایران در زمینهی یادگیری کار کرده باشید، احتمالا حتما میدانید که خیلی سخت دیتا در اختیارتان قرار میدهند. دلایل متفاوتی برای این موضوع وجود دارد؛ برای مثال، اتحادیه اروپا خیلی حساس است که دادههایش در خود اروپا ذخیره شوند و حتی برای دخیرهسازی در آمریکا هم کمی سختگیری دارند. اخیرا که Midjourney خیلی سروصدا کرد و نتایج بسیار جالبی داشت، حواشی پیرامونش نیز جنجال بهپا کرد. تعدادی نقاش بابت آموزش این مدل با نقاشیهای دردسترس از سطح وب شکایت کردند و احتمال دارد که شکایتشان نرمافزار یادشده را با مشکلات متعددی روبهرو کند. این موضوع حتی میتواند برای مدلهای generative بهکل در آینده مشکلساز شود زیرا از OpenAI هم شکایت مشابهی شده است. برای تحلیل اوضاع، شاید نتوان در حال حاضر حرف خاصی زد ولی در هر صورت برای ما که به دادههای متفاوت قبل از این هم دسترسی سختی داشتیم شاید اوضاع چندان تفاوت نکند. درست است که شکایات برای دادههای public بودهاند ولی ممکن است در آینده قوانین سختگیرانهتری وضع شود که کار از راه دور در زمینهی یادگیری را در کشورهای دیگر کمی با چالش روبهرو کند. با این وجود، نمیتوان ناامید بود زیرا با توجه به شرایط کنونی نیز در زمینهی یادگیری معمولا برای دورکاری حتی در سایر کشورها نیز محدودیت دسترسی به داده همین حالا نیز وجود دارد.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#تجربه_کاری #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Media is too big
VIEW IN TELEGRAM
بخش اول
یکی از مفاهیم پر کاربرد در زمینههای مختلف هوش مصنوعی، mutual information است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#ویدیو #نکته_آموزشی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
یکی از مفاهیم پر کاربرد در زمینههای مختلف هوش مصنوعی، mutual information است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#ویدیو #نکته_آموزشی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Media is too big
VIEW IN TELEGRAM
بخش دوم
یکی از مفاهیم پر کاربرد در زمینههای مختلف هوش مصنوعی، mutual information است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#ویدیو #نکته_آموزشی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
یکی از مفاهیم پر کاربرد در زمینههای مختلف هوش مصنوعی، mutual information است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#ویدیو #نکته_آموزشی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
پیش از این در ارتباط با دکتر Abbeel و مطالعاتشان صحبت کرده بودیم. ایشان اخیرا مقالهی بسیار مهمی تحت عنوان Guiding Pretraining in Reinforcement Learning with Large Language Models را در آرکایو قرار دادهاند که نشان از اهمیت مدلهای از این دست در وظایف متفاوت دارد. با توجه به شمار مقالاتی که در این سالها در حوزهی استفاده از مدلهای زبانی مبتنیبر تبدیلکننده چاپ شده، کار کردن در این زمینه را توصیه میکنیم.
Reinforcement learning algorithms typically struggle in the absence of a dense, well-shaped reward function. Intrinsically motivated exploration methods address this limitation by rewarding agents for visiting novel states or transitions, but these methods offer limited benefits in large environments where most discovered novelty is irrelevant for downstream tasks. We describe a method that uses background knowledge from text corpora to shape exploration. This method, called ELLM (Exploring with LLMs) rewards an agent for achieving goals suggested by a language model prompted with a description of the agent’s current state. By leveraging large-scale language model pretraining, ELLM guides agents toward human-meaningful and plausibly useful behaviors without requiring a human in the loop. We evaluate ELLM in the Crafter game environment and the Housekeep robotic simulator, showing that ELLM-trained agents have better coverage of common-sense behaviors during pretraining and usually match or improve performance on a range of downstream tasks.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #یادگیری_عمیق #یادگیری_تقویتی_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Reinforcement learning algorithms typically struggle in the absence of a dense, well-shaped reward function. Intrinsically motivated exploration methods address this limitation by rewarding agents for visiting novel states or transitions, but these methods offer limited benefits in large environments where most discovered novelty is irrelevant for downstream tasks. We describe a method that uses background knowledge from text corpora to shape exploration. This method, called ELLM (Exploring with LLMs) rewards an agent for achieving goals suggested by a language model prompted with a description of the agent’s current state. By leveraging large-scale language model pretraining, ELLM guides agents toward human-meaningful and plausibly useful behaviors without requiring a human in the loop. We evaluate ELLM in the Crafter game environment and the Housekeep robotic simulator, showing that ELLM-trained agents have better coverage of common-sense behaviors during pretraining and usually match or improve performance on a range of downstream tasks.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #یادگیری_عمیق #یادگیری_تقویتی_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
اخیرا شرکتهای مختلف ایرانی در حال شیفت از سری 30 به 40 و مخصوصا 4090 هستند. مشکلاتی برای این کارت گرافیک پیرامون کانکتورهای پاور پیشآمده که با توجه به قیمت، کمی نگرانکننده است. انویدیا ضمن تایید موضوع، علت و راه حل را ارایه کرده است:
What has Nvidia said about all of this?
“We are actively investigating the reports. We are aware of about 50 cases globally," Nvidia wrote on its support site.
"Our findings to date suggest that a common issue is that connectors are not fully plugged into the graphics card. To help ensure the connector is secure we recommend plugging the power dongle into the graphics card first to ensure it's firmly and evenly plugged in, before plugging the graphics card into the motherboard.
We are investigating additional ways to ensure that the connector is secure before powering on the graphics card."
Nvidia and our partners are committed to supporting our customer and ensuring an expedited RMA process, regardless of the cable or card used.”
The company said that in testing cables returned from customers, a "wear line" can be seen, suggesting that the cable wasn't fully inserted into the connector on the card.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #شبکه_عصبی #یادگیری_عمیق #کارت_گرافیک #انویدیا #nvidia
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
What has Nvidia said about all of this?
“We are actively investigating the reports. We are aware of about 50 cases globally," Nvidia wrote on its support site.
"Our findings to date suggest that a common issue is that connectors are not fully plugged into the graphics card. To help ensure the connector is secure we recommend plugging the power dongle into the graphics card first to ensure it's firmly and evenly plugged in, before plugging the graphics card into the motherboard.
We are investigating additional ways to ensure that the connector is secure before powering on the graphics card."
Nvidia and our partners are committed to supporting our customer and ensuring an expedited RMA process, regardless of the cable or card used.”
The company said that in testing cables returned from customers, a "wear line" can be seen, suggesting that the cable wasn't fully inserted into the connector on the card.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #شبکه_عصبی #یادگیری_عمیق #کارت_گرافیک #انویدیا #nvidia
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
XDA Developers
Nvidia RTX 4090 power connectors are melting - What you can do to minimize the risk
Another year and another controversy emerges over Nvidia's flagship graphics cards. But you can minimize your own risk of it happening to you.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #شبکه_عصبی #یادگیری_عمیق #کارت_گرافیک #انویدیا #nvidia
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
#خبر #شبکه_عصبی #یادگیری_عمیق #کارت_گرافیک #انویدیا #nvidia
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
با وجود اینکه یکی از اعضایمان دانشجوی مرحوم ملکیان بوده و با اتک چندان بیگانه نیستیم، ولی طی ظاهرا حملاتی که در چند روز اخیر به وبسایت شد، برای ساعاتی به کل مجبور شدیم وبسایت را از دسترس خارج کنیم. به همین دلیل تصمیم گرفتیم مفاهیم دو میم پایین را به شما نیز منتقل کنیم! میمها وحشتناک، دهشتناک، خشن، ترسناک، مخوف، نوآر، هارر مووی، تریبل مومنت، اوفول پیکچر، سروایول کتگری، اِسمِل آو ساکس، دیسگاستین گارلیک، خونآلود، خونیمالی و دلهرهآورند. پیشاپیش گرزخواهی میکنیم.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#طنز
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#طنز
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 21
فهم صحیح و درک درست از روابط
یکی از مواردی که خیلی تاکید میکنیم رویش تمرکز کنید، ابتدا فهم روابط است که چه کاری انجام میدهند و در ادامه درک آن است. میان این دو تمایز قایل میشویم؛ زیرا معمولا کسی در مقالات خیلی علت رسیدن به برخی از روابط پرکاربرد را توضیح نمیدهد و مقالات کمی پیدا میشوند که تمامی روابط، مخصوصا آنهایی که اثباتی نیستند، را توضیح دهند. برای شفاف شدن، مثالی میزنیم. اگر توجه کرده باشید، در مقالهی تبدیلکننده، رابطهای برای پیدا کردن مقادیر نهایی هر لایه ارایه شده که از ضرب پرسوجو در کلید و در نهایت ضرب حاصل با ماتریس مقادیر حاصل میشود که فرآیند خودتوجه نامیده میشود. احتمالا روابط را بررسی کردهاید و در نهایت فهمیدهاید که در محاسبات چه اتفاقی میافتد و تمام. ولی آیا تا به حال فکر کردهاید که ضرب ماتریس توجه در ماتریس مقادیر، عملا برای هر حاصل، یک ترکیب خطی از مقادیر خواهد بود با ضرایب توجه؟ به عبارتی توجه کردهاید که تمامی حاصلها صرفا در فضای مربوط به مقادیر هستند. همین ایده را میتوان رویش نوآوریهایی را اجرا کرد در مقایسه با تبدیلکنندهی اصلی؛ برای مثال آیا فکر کردهاید که به فضای غنیتر با ابعاد کمتر برویم؟
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری #transformer
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
فهم صحیح و درک درست از روابط
یکی از مواردی که خیلی تاکید میکنیم رویش تمرکز کنید، ابتدا فهم روابط است که چه کاری انجام میدهند و در ادامه درک آن است. میان این دو تمایز قایل میشویم؛ زیرا معمولا کسی در مقالات خیلی علت رسیدن به برخی از روابط پرکاربرد را توضیح نمیدهد و مقالات کمی پیدا میشوند که تمامی روابط، مخصوصا آنهایی که اثباتی نیستند، را توضیح دهند. برای شفاف شدن، مثالی میزنیم. اگر توجه کرده باشید، در مقالهی تبدیلکننده، رابطهای برای پیدا کردن مقادیر نهایی هر لایه ارایه شده که از ضرب پرسوجو در کلید و در نهایت ضرب حاصل با ماتریس مقادیر حاصل میشود که فرآیند خودتوجه نامیده میشود. احتمالا روابط را بررسی کردهاید و در نهایت فهمیدهاید که در محاسبات چه اتفاقی میافتد و تمام. ولی آیا تا به حال فکر کردهاید که ضرب ماتریس توجه در ماتریس مقادیر، عملا برای هر حاصل، یک ترکیب خطی از مقادیر خواهد بود با ضرایب توجه؟ به عبارتی توجه کردهاید که تمامی حاصلها صرفا در فضای مربوط به مقادیر هستند. همین ایده را میتوان رویش نوآوریهایی را اجرا کرد در مقایسه با تبدیلکنندهی اصلی؛ برای مثال آیا فکر کردهاید که به فضای غنیتر با ابعاد کمتر برویم؟
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری #transformer
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات