Telegram Web
تو پایتون چی کارا نکنیم - بخش 2

قبلا اشاره‌کردیم که سعی‌کنید لیست‌ها را المان به المان پر نکنید. یکی از راه‌کارهایی که پیشنهادشد، استفاده از generator بود. برای ساختِ generator یکی از راه‌کارهای کم‌تر شناخته‌شده ولی با کدزنیِ کم‌تر را معرفی می‌کنیم.

a = ( item for item in range(100_000) )
print(type(a)) # output: <class 'generator'>
# You can utilize `a` as a generator without the overhead of list copies.

😉

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Quaternion Capsule Networks_2.ts
16.1 MB
Quaternion CapsNets

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #معرفی_مقاله #ویدیو #capsule_network
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
دوره‌ی آموزشی تنسورفلو و یادگیری عمیق

🎁 همراه 25% تخفیف برای 25 نفر ثبتِ نام کننده‌ی اول

آغاز دوره: پانزدهم بهمن ماه 1401
مدت زمانِ کلاسِ آفلاین: +30
مدت زمانِ کلاسِ آنلاین: 12
پیشنیاز دوره: آشنایی با مفاهیمِ اولیه‌ی برنامه‌نویسی

اطلاعاتِ بیشتر

ــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت
معرفی مقاله مروری برای شبکه‌های تبدیل‌کننده

استفاده از شبکه‌های تبدیل‌کننده برای داده‌های مکانی نظیرِ تصویر بسیار پرکاربرد شده‌است و مقالاتِ متعددی سال قبل برای این موضوع به چاپ رسید که به مقاله‌ی مروری Transformers in computational visual media: A survey اشاره می‌کنیم. مقاله، دسته‌بندیِ مناسبی از روش‌ها ارایه کرده‌است و به دلیلِ تازه بودن، پوششِ مناسبی از تحولاتِ اخیر ارایه کرده‌است. اگر در زمینه‌ی تبدیل‌کننده‌ها قصد فعالیت دارید، خواندن مقاله را پیشنهاد می‌دهیم.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #تبدیل‌کننده #transformer #شبکه_عصبی #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
معرفی مقاله مروری برای شبکه‌های کپسولی

در ادامه‌ی جمع‌بندی مقالات مهم سال قبل، در حوزه شبکه‌های کپسولی، مطالعه‌ی مقالاتِ مروریِ جدیدی که در ادامه قرار می‌دهیم را بسیار توصیه می‌کنیم. مقاله‌ی اول پیرامون استفاده از این شبکه‌ها برای وظایف مربوط به بینایی ماشین است؛ با این حال، اگر در حوزه‌های دیگر نیز کار می‌کنید، خواندن این مقاله را پیشنهاد می‌دهیم. Capsule Networks for Image Classification: A Review. مقاله‌ی بعدی Learning with Capsules: A Survey است که در آن بسیاری از مفاهیم پایه برای فهم این دست از شبکه‌ها معرفی شده‌است.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #capsule_network #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
انتشارات packt اخیرا طی حرکتی حماسی اقدام به عملیاتی همه جانبه زده و تقریبا تمامی آثارش را به قیمت 5 دلار به فروش می‌رساند. ظاهرا تخفیف‌ها تا دو روز دیگر پابرجاست. این انتشارات کتاب‌های خوب زیادی در زمینه‌ی یادگیری و برنامه‌نویسی دارد. 😃😉

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #معرفی_منبع_آموزشی #معرفی_منبع #معرفی_کتاب
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
اخیرا مقاله‌ی دکتر هینتون در نیپس سروصدای زیادی کرد. اگر بنا به تحلیل کار صورت گرفته و وضعیت کنونی باشد، شرایط را دقیقا با سال 2017 مشابه می‌دانیم. زمانی که در آن سال به قول خیلی‌ها هینتون ایده‌ی شبکه‌ی کپسولی را از حالت خام سال 2011 به مرحله‌ی مسیریابی رساند، خیلی‌ها سال بعدش ایده‌هایی که در جای‌جای شبکه‌های دیگر عصبی مورد استفاده قرار گرفته بودند را با کپسول ادغام کردند. در حال حاضر، ایده مطرح‌شده‌ی امسال خیلی ساده، پخته نیست. پیشنهاد اکید می‌دهیم اگر قصد دارید سایتیشن مناسب داشته باشید، حتما حتما امسال روی این کار جدید پیپر بدهید حتی اگر ایده‌هایتان نوآورانه ولی کم باشند و سعی کنید در ژورنال‌های q3 و q3 به بالا چاپ کنید یا اگر قصد چاپ ندارید، حداقل بعد از نوشتن بلافاصله آرکایو کنید.


ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #هینتون #forward_forward #شبکه_عصبی #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
This media is not supported in your browser
VIEW IN TELEGRAM
در مورد چهارگان یا کواترنیون پیش از این مطالبی برای معرفی مقاله قرار داده بودیم. شبکه‌های عصبی به صورت کلی کاری که می‌کنند اعمال تبدیلات خطی و غیر خطی است. چهارگان نیز روشی برای اعمال چرخش، یک تبدیل خطی، است که در آن اگر پیش‌فرض‌ها رعایت شوند، زاویه‌ی هر دو بردار پس از اعمال تبدیل حفظ می‌شود و فواصل تغییر نمی‌کنند. ایده‌ی استفاده از چهارگان سال پیش در مقالات مهمی مطرح شد و استفاده از آن احتمالا با توجه به پیاده‌سازی ساده‌اش، افزایش پیدا کند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #ویدیو #چهارگان #quaternion
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تعدادی از کتاب‌های انتشارات Manning اسپانسر پیدا کرده و رایگان شده‌اند. با توجه به عناوین، کتاب‌های How to Put Al Models Into Production و Machine Learning Engineering in Action را پیشنهاد می‌دهیم.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #معرفی_منبع_آموزشی #معرفی_منبع #معرفی_کتاب
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 20

خواندن پتنت


معمولا با مشکلی که ذکر می‌کنیم زمانی روبه‌رو می‌شوید که قرار باشد روشی را پیاده‌سازی کنید که کدش متن باز نیست. یکی از راه‌های درآمدزایی شرکت‌های بزرگ این است که بعد از چاپ روش و پتنت کردن، از آن راه پول در می‌آورند و خیلی جزییات را در مقاله قرار نمی‌دهند. این کار در پردازش زبان طبیعی خیلی مرسوم است. حتی با وجود استفاده از مقاله، پیاده‌سازی ممکن است دقیقا خود روش نشود. مخصوصا اگر زمینه یادگیری باشد که با کوچک‌ترین تغییرات در ابرپارامترها، نتایج به‌کل ممکن است تغییر کند. در این شرایط، توصیه، بررسی پتنت ثبت‌شده است. معمولا در پتنت جزییات مناسب‌تری نسبت به مقاله پیرامون جزییات روش ارایه می‌شود. در مقالات برای جلوگیری از ایجاد خستگی در خواننده، داوران خیلی اجازه‌ی ریز شدن نمی‌دهند ولی در پتنت، نویسندگان مجبورند جزییات بیشتری بیان کنند. لازم است بدانید که حتی در این شرایط هم در پتنت ممکن است مواردی ذکر نشود با این حال بیشتر از اصل مقاله ممکن است کمک‌کننده باشد.


ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تو پایتون چی کارا نکنیم - بخش 3

یکی از موارد بسیار پر اهمیت استفاده از مقادیر پیش‌فرض برای ورودی‌های توابع است. با این حال، لازم است حتما دقت کنید که به هیچ‌وجه مقادیر پیش‌فرض را شی، مثلا لیست، قرار ندهید؛ برای مثال، از تکه کد زیر به شدت اجتناب کنید:


def func(a=[]): 
a.append(10)
print(a)

اگر دو بار تابع را فراخوانی کنید، ابتدا [10] و بار دوم [10, 10] را خواهید دید. در حالی که این به هیچ‌وجه مطلوب نیست. در ورودی توقع دارید که هر بار لیست خالی برای a در نظر گرفته شود ولی رفتار پایتون برای مقادیر پیش‌فرض نظیر لیست این‌گونه نیست.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تجربه کاری

اگر با شرکت‌های خارج از ایران در زمینه‌ی یادگیری کار کرده باشید، احتمالا حتما می‌دانید که خیلی سخت دیتا در اختیارتان قرار می‌دهند. دلایل متفاوتی برای این موضوع وجود دارد؛ برای مثال، اتحادیه اروپا خیلی حساس است که داده‌هایش در خود اروپا ذخیره شوند و حتی برای دخیره‌سازی در آمریکا هم کمی سخت‌گیری دارند. اخیرا که Midjourney خیلی سروصدا کرد و نتایج بسیار جالبی داشت، حواشی پیرامونش نیز جنجال به‌پا کرد. تعدادی نقاش بابت آموزش این مدل با نقاشی‌های دردسترس از سطح وب شکایت کردند و احتمال دارد که شکایتشان نرم‌افزار یادشده را با مشکلات متعددی روبه‌رو کند. این موضوع حتی می‌تواند برای مدل‌های generative به‌کل در آینده مشکل‌ساز شود زیرا از OpenAI هم شکایت مشابهی شده است. برای تحلیل اوضاع، شاید نتوان در حال حاضر حرف خاصی زد ولی در هر صورت برای ما که به داده‌های متفاوت قبل از این هم دسترسی سختی داشتیم شاید اوضاع چندان تفاوت نکند. درست است که شکایات برای داده‌های public بوده‌اند ولی ممکن است در آینده قوانین سخت‌گیرانه‌تری وضع شود که کار از راه دور در زمینه‌ی یادگیری را در کشورهای دیگر کمی با چالش روبه‌رو کند. با این وجود، نمی‌توان ناامید بود زیرا با توجه به شرایط کنونی نیز در زمینه‌ی یادگیری معمولا برای دورکاری حتی در سایر کشورها نیز محدودیت دسترسی به داده همین حالا نیز وجود دارد.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#تجربه_کاری #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Media is too big
VIEW IN TELEGRAM
بخش اول
یکی از مفاهیم پر کاربرد در زمینه‌های مختلف هوش مصنوعی، mutual information است.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#ویدیو #نکته_آموزشی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Media is too big
VIEW IN TELEGRAM
بخش دوم
یکی از مفاهیم پر کاربرد در زمینه‌های مختلف هوش مصنوعی، mutual information است.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#ویدیو #نکته_آموزشی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
پیش از این در ارتباط با دکتر Abbeel و مطالعاتشان صحبت کرده بودیم. ایشان اخیرا مقاله‌ی بسیار مهمی تحت عنوان Guiding Pretraining in Reinforcement Learning with Large Language Models را در آرکایو قرار داده‌اند که نشان از اهمیت مدل‌های از این دست در وظایف متفاوت دارد. با توجه به شمار مقالاتی که در این سال‌ها در حوزه‌ی استفاده از مدل‌های زبانی مبتنی‌بر تبدیل‌کننده چاپ شده، کار کردن در این زمینه را توصیه می‌کنیم.

Reinforcement learning algorithms typically struggle in the absence of a dense, well-shaped reward function. Intrinsically motivated exploration methods address this limitation by rewarding agents for visiting novel states or transitions, but these methods offer limited benefits in large environments where most discovered novelty is irrelevant for downstream tasks. We describe a method that uses background knowledge from text corpora to shape exploration. This method, called ELLM (Exploring with LLMs) rewards an agent for achieving goals suggested by a language model prompted with a description of the agent’s current state. By leveraging large-scale language model pretraining, ELLM guides agents toward human-meaningful and plausibly useful behaviors without requiring a human in the loop. We evaluate ELLM in the Crafter game environment and the Housekeep robotic simulator, showing that ELLM-trained agents have better coverage of common-sense behaviors during pretraining and usually match or improve performance on a range of downstream tasks.


ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #یادگیری_عمیق #یادگیری_تقویتی_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
اخیرا شرکت‌های مختلف ایرانی در حال شیفت از سری 30 به 40 و مخصوصا 4090 هستند. مشکلاتی برای این کارت گرافیک پیرامون کانکتورهای پاور پیش‌آمده که با توجه به قیمت، کمی نگران‌کننده است. انویدیا ضمن تایید موضوع، علت و راه حل را ارایه کرده است:

What has Nvidia said about all of this?

“We are actively investigating the reports. We are aware of about 50 cases globally," Nvidia wrote on its support site.
"Our findings to date suggest that a common issue is that connectors are not fully plugged into the graphics card. To help ensure the connector is secure we recommend plugging the power dongle into the graphics card first to ensure it's firmly and evenly plugged in, before plugging the graphics card into the motherboard.
We are investigating additional ways to ensure that the connector is secure before powering on the graphics card."
Nvidia and our partners are committed to supporting our customer and ensuring an expedited RMA process, regardless of the cable or card used.”
The company said that in testing cables returned from customers, a "wear line" can be seen, suggesting that the cable wasn't fully inserted into the connector on the card.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #شبکه_عصبی #یادگیری_عمیق #کارت_گرافیک #انویدیا #nvidia
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #شبکه_عصبی #یادگیری_عمیق #کارت_گرافیک #انویدیا #nvidia
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
با وجود اینکه یکی از اعضایمان دانشجوی مرحوم ملکیان بوده و با اتک چندان بیگانه نیستیم، ولی طی ظاهرا حملاتی که در چند روز اخیر به وبسایت شد، برای ساعاتی به کل مجبور شدیم وبسایت را از دسترس خارج کنیم. به همین دلیل تصمیم گرفتیم مفاهیم دو میم پایین را به شما نیز منتقل کنیم! میم‌ها وحشت‌ناک، دهشت‌ناک، خشن، ترسناک، مخوف، نوآر، هارر مووی، تریبل مومنت، اوفول پیکچر، سروایول کتگری، اِسمِل آو ساکس، دیسگاستین گارلیک، خون‌آلود، خونی‌مالی و دلهره‌آورند. پیشاپیش گرزخواهی می‌کنیم.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#طنز
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 21

فهم صحیح و درک درست از روابط

یکی از مواردی که خیلی تاکید می‌کنیم رویش تمرکز کنید، ابتدا فهم روابط است که چه کاری انجام می‌دهند و در ادامه درک آن است. میان این دو تمایز قایل می‌شویم؛ زیرا معمولا کسی در مقالات خیلی علت رسیدن به برخی از روابط پرکاربرد را توضیح نمی‌دهد و مقالات کمی پیدا می‌شوند که تمامی روابط، مخصوصا آن‌هایی که اثباتی نیستند، را توضیح دهند. برای شفاف شدن، مثالی می‌زنیم. اگر توجه کرده باشید، در مقاله‌ی تبدیل‌کننده، رابطه‌ای برای پیدا کردن مقادیر نهایی هر لایه ارایه شده که از ضرب پرس‌وجو در کلید و در نهایت ضرب حاصل با ماتریس مقادیر حاصل می‌شود که فرآیند خودتوجه نامیده می‌شود. احتمالا روابط را بررسی کرده‌اید و در نهایت فهمیده‌اید که در محاسبات چه اتفاقی می‌افتد و تمام. ولی آیا تا به حال فکر کرده‌اید که ضرب ماتریس توجه در ماتریس مقادیر، عملا برای هر حاصل، یک ترکیب خطی از مقادیر خواهد بود با ضرایب توجه؟ به عبارتی توجه کرده‌اید که تمامی حاصل‌ها صرفا در فضای مربوط به مقادیر هستند. همین ایده را می‌توان رویش نوآوری‌هایی را اجرا کرد در مقایسه با تبدیل‌کننده‌ی اصلی؛ برای مثال آیا فکر کرده‌اید که به فضای غنی‌تر با ابعاد کم‌تر برویم؟

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری #transformer
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
2025/06/28 10:50:19
Back to Top
HTML Embed Code: