Telegram Web
استفاده از یادگیری عمیق در پروژه های تجاری - بخش شانزدهم

شناخت درست از داده


یکی از کارهایی که قبل از ساخت مدل لازم است حتما انجام شود، بررسی چند sample تصادفی از دادگانِ مساله است. به این صورت که مثلا بیاید و پنج دسته‌ی صدتایی از داده‌های تصادفی را خودتان بررسی کنید و کاری که شبکه قرار است انجام دهد را انجام دهید. اگر خودتان در زمینه تخصص ندارید، از کسی که در زمینه‌ی مربوطه حاذق است کمک بگیرید. بررسی کنید که این مساله برای یک عامل انسانی تا چه میزان چالش دارد. در هر دسته داده بررسی کنید که خطا چه میزان شده است. این میزان خطا به صورت حدودی دقتی را که از مدل لازم است توقع داشته باشید را می‌دهد. شاید مدل بتواند کمی بهتر عمل کند ولی این دقت به شما کمک می‌کند که به کارفرما همان ابتدا بگویید که مساله تا چه میزان دشوار است و چقدر می‌توان توقع داشت که با روش‌های یادگیری به نتیجه‌ی قابل قبول رسید.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری #یادگیری_ماشین
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Media is too big
VIEW IN TELEGRAM
نمونه‌ای از مثال‌های خصمانه! به این علت ایمن‌سازی لازم است.


ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#یادگیری_عمیق #خصمانه #شبکه_عصبی #ویدیو #adversarial
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 17

استفاده از روش Nesterov در زمینه‌های متفاوت

یکی از روش‌های بهینه‌‌سازیِ کارآمد، روش بهینه‌سازیِ نسترو است. ایده‌ی کلی به این شکل است که در ابتدا سعی کنید با توجه به داده‌ها و سایرِ شرایطِ کنونی، حدسی بزنید و محاسبات را انجام دهید، در ادامه و پیش از استفاده سعی کنید از اصلاح‌شده‌ی محاسبات استفاده کنید؛ یعنی در ابتدا سعی کنید حدسی بزنید و در ادامه از اصلاح‌شده‌ی حدس استفاده‌کنید تا نتایجِ بهتری بگیرید. حال اگر دقت کنید در شبکه‌های عصبی خیلی جاها می‌توان از این ایده استفاده کرد. حتی در همین ایده‌ی ساده می‌توان خیلی نوآوری داشت. در پروژه‌های کاری معمولا نوآوری خیلی شرط نیست و رسیدن به دقتِ مطلوب ایده‌آل است. با این حال، خیلی وقت‌ها نوآوری‌ها می‌توانند سبب‌شوند دقت بهتر شود. یکی از جاهایی که این ایده می‌تواند استفاده شود، اصلاحِ میانگین، حذفِ نقاط پرت (کمک‌کننده برای اصلاح)، و اصلاح مجددِ میانگین و استفاده از آن است. در کدام شبکه‌ها یا زیر شبکه‌های مولد این ایده را می‌توان به کار برد؟! 😃😉

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری #بهینه_سازی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تجربه دانشگاهی - نحوه درس برداشتن در ارشد

یکی از توصیه‌هایی که برای دانشجویانِ دوره‌ی ارشد داریم این است که سعی کنید دروس را در طولِ چهار ترم بردارید و به هیچ وجه سعی نکنید که سه ترمه تمام کنید تا برای ترم‌های بعدی سرتان خلوت باشد تا بیشتر وقت رویِ پایان‌نامه بگذارید. موضوعی که وجود دارد این است که در رشته‌های ارشد کامپیوتر مخصوصا هوش، درس‌ها به شدت نیاز به وقت گذاشتن دارند و همه‌ی آن‌ها مهم هستند؛ از سویی، معدل ارشد اهمیتِ بسیار بالایی در آینده‌ی تحصیلی و حتی شغلی دارد مخصوصا اگر در دانشگاه خوبی درس خوانده باشید. وقتی تعداد دروس در یک ترم زیاد باشد، نه به مقدماتِ پایان‌نامه می‌رسید نه به دروس. علاوه بر این، در یکی دو ترم نهایی، چهار و احتمالا پنجم، خواهید دید که وقت اجازه می‌دهد که علاوه بر پایان‌نامه و احتمالا مقاله درس بردارید و معدلتان را بهبود بخشید. از طرفی، سعی کنید از آن طرف بوم نیافتید. پیشنهاد می‌دهیم پایان‌نامه را دو درس و اگر می‌خواهید مقاله چاپ کنید سه درس در نظر بگیرید و تعدادِ دروس را در چهار یا پنج ترم مساوی پخش کنید تا از همان ابتدا با برنامه پیش‌بروید.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #ارشد_دکتری #تجربه_دانشگاهی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
چه کتاب‌های جدیدی بخوانیم؟!

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_کتاب #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
This media is not supported in your browser
VIEW IN TELEGRAM
پیش از این در ارتباط با ماتریس توجه در شبکه‌های تبدیل‌کننده صحبت کرده‌بودیم. در Dodrio می‌توانید اتفاقات را کامل درک‌کنید. اگر درک عمیقی از اتفاقاتِ داخلِ محاسباتِ ترنزفرمرها ندارید، حتما ویدیو را تماشا کنید.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #transformer #یادگیری_عمیق #ویدیو #attention #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 18

عدم محدودیت در استفاده از روابط در لایه‌ی تمام‌اتصال

پیش از این اشاره کرده‌بودیم که در مقالات معمولا بدلیلِ هزینه‌بر بودنِ ablation study سعی می‌شود که روش‌های جدیدی که سایرین درست کرده‌اند استفاده‌نشود مگر اینکه نوآوری در کار باشد. ولی در کارهای تجاری دست مهندسِ شبکه خیلی باز است و می‌تواند از روش‌های متفاوتی استفاده‌کند. با این وجود شاهد این هستیم که معمولا این‌کار صورت نمی‌گیرد. برای روشن شدن ماجرا، احتمالا همه زمانِ ساختِ شبکه‌های پیچشی از لایه‌های تمام‌اتصالِ عادی استفاده کرده‌باشیم؛ با این حال، در این زمینه مطالعاتِ فرآوانی صورت گرفته است که چگونه عملکردِ لایه‌های تمام‌اتصال بهبود بخشیده‌شوند. به عنوانِ مثالی ساده، خیلی از افراد برای بهبودِ کیفیتِ شبکه‌های پیچشی به سراغ جدیدترین مدل‌های شبکه‌های پیچشی می‌روند که در لایه‌های پیچشی تغییراتی بوجود آورده‌اند ولی می‌توان با استفاده از لایه‌های عادیِ پیچشی و روش‌های بهبودیافته در لایه‌های تمام‌اتصال نتیجه را خیلی خوب‌کرد. اگر بخواهیم به دسته‌ای از مقالات اشاره‌کنیم، مقاله‌ی بسیار قدیمیِ generalized feedforward neural network architecture را معرفی می‌کنیم و اینکه استفاده از همین تغییر کوچک تا چه میزان می‌تواند در بهبودِ کیفیتِ شبکه تاثیرِ مثبت داشته‌باشد. توجه کنید که معمولا دو سه لایه‌ی آخرِ شبکه‌های پیچشی تقریبا در تمامیِ معماری‌ها شبیه به هم هستند ولی ما اصرار داریم که سعی کنید جاهایی را که معمولا کسی با آن‌ها کاری ندارد و همه ثابت در نظر می‌گیرند را بهبود بخشید.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
یکی از قابلیت‌های جالب و کم‌تر شناخته‌شده‌ی پایتون، جداکننده‌ی عددی است. در خواندنِ اعداد، اگر عددی مثل، 10000500200 را دیدید، لازم است از راست سه‌تا سه‌تا جدا کنید تا بتوانید عدد را بخوانید. در پایتون راهِ حل، استفاده از underscore است؛ برای مثال، در قطعه کد زیر دیده می‌شود که برای ساده کردنِ خواندنِ literal عددی، از این روش استفاده‌شده‌است.


a = 10_000_500_200
print(a)
## output:
»»» 10000500200


ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
بسیار خوب! از آخرین پستی که پیرامون تئوری توطئه قرار داده‌بودیم مدتی می‌گذرد و در این بازه اتفاقات مهمی رخ‌داده که یکی را بررسی می‌کنیم و طبق معمول کمی سایفر صحبت می‌کنیم که تلگرام حس اس نشود. شاهد این ماجرا هستیم که بعد از سال‌ها فیلم دوم اوِ._تار ساخته و اکران‌شد. این فیلم یکی از چند لایه‌ترین مووی‌های تاریخ صینماست. در این باره حتی می‌توانیم بگوییم که از فرمانروای رینگ‌ها هم چند پهلوتر است. مخاطب عادی صین ما که در ایالات فیلم را می‌بیند، بی اختیار به وارِ در ایراک فکر می‌کند که سال‌ها طول کشید، مخاطب شرق آسیا به تن ...اس__خ و مخاطبی که از فرزندانِ یعقو+ ب. نبی ع است به اصلی‌ترین لایه. تابه حال توجه کردید که چرا در خیلی از مو_وی‌ها کاراک ترهای غیر انسانی بلو رنگ هستند؟! این موضوع به یکی از نگاره‌های فرزندان یعقوب باز می‌گردد که در آن سل_ یمان نبی (ع) در کنارِ دیگر موجودات هوشمند کره زمین، علف‌ها (!!)، که در آن‌ها آبی رنگ هستند، قرار دارد. این موضوع را در خیلی از مو و ی‌ها شاهد هستید. خیلی نمی‌توان به خاطر محدودیتها بحث کرد ولی به یکی از موارد اشاره می کنیم. به صورت کلی در آیین کنونی ک**l__ب ا.... لیستها به صورت کلی، مقصر رانده شدن ادم خدا بوده نه فرد رانده شده. بر همین اساس، خیلی از مووی ها ساخته می شوند. این موضوع به زندگی روزمره چه ارتباطی دارد؟ قبل از اشاره به این نکته، موضوع دیگری را طرح می‌کنیم. در آیات مربوط به هب _وط، در تفسیر ال می زان، با استدلالی دقیق بیان می شود که جنت ی که در قرآن وجود دارد، باقغی زیبا در خود همین کره بوده. این مورد با تو جه به نکته ای که پیش از این گفته بودیم که ورژن‌های دیگری از انسان وجود داشته و ما در حال حاضر ورژن آخر هستیم کاملا مطابقت دارد؛ یعنی کل این ایده که ما جامون بهشت بوده به خاطر اشتباه دو نفر اومدیم این کره غلطه؛ بنابراین شعر حافظ که می‌گوید من ملک بودم و فردوس برین جایم بود هم درست نیست. قبلا اشاره‌کرده بودیم که هدف تسخیر است. نکته را کامل می‌کنیم. هدف ایجاد تسخی*)*ر با آ_شو_ب است. در موویِ ونو ممم از جهانِ مرول، تک تکِ خلقیاتِ علف‌ها به صورت مستقیم در ذهن مخاطب می‌شد. به خاطر دارید به صدا حساس بودند، چگونه با فرد مسخر صحبت می‌کردند و ...؟ برای فرزندان یعقوب در فیلمی مثل او تا ر، نکته‌هایی قرار داده‌شده که فقط خودشان متوجه‌شوند؛ برای مثال و به عنوان مثالی دم دستی، دختری از بومیان که به آدمیان نزدیک‌شد و طی داستان به خوانندگی اشاره می‌شد، واقعا به دنیای واقعی اشاره‌داشت. در جایی که بچه‌ها یعق و ب برای خود برداشتند واقعا خواننده زنی به همان نام وجود دارد. در این مووی به مفاهیمی مثل درخت اشاره میشد که فعلا از آن عبور می‌کنیم و به یک نکته دیگر اشاره می‌کنیم. یکی از آیات بسیار معروف قرآن، مربوط به جایی می‌شود که ازا زیل از خدا فرصت می خواهد که تا رزرکشن دِی مردم را گمراه کند ولی خدا می گوید تا وقتی معلوم. اگر به تفاسیرِ معصومین مراجعه کنید می بینید که این زمان، زمانِ ظه ور است. بر طبق روایاتی ازا ززی لل به دست محمد آخر ( ع ج) در کنار ق به صخ ره سر زده خواهد شد. اگر دقت کرده باشید، مس جد ال اغس--اا آنی است که گنبد سبز دارد نه زرد. نام زرده، قبه س خره است. بچه ها ی یعقوب با آن زرده کاری ندارند بلکه با دیواری که نزدیک آن است ، والِ ن دب ه، بسیار کار می‌کنند!! قضیه از این قرار است که این دیوار به جا مانده از بنای ح ی.... ک ل مربوط به سلیما نی است . چرا این موضوع مهم است؟

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #تئوری_توطئه
(ادامه ...) در قرآ_ن ازازیل از خدا تا رزرکشن دی فرصت می‌خواهد ولی گاد تا روزی معین به او فرصت می‌دهد. ازا زیل می داند که قرار است به دست آخرین محمد سر زده شود و تمام تلاشش را می کند که بنای حی کل مجدد ساخته شود و قبه خراب شود . این قضیه در بازی های فراوانی نظیر کال آو دیوتی سالهای قبل کد شده بود. ما به گروه خفن و خفوف و مخوفِ بنا ها اشاره کرده بودیم. تاب ه حال اندیشیده اید که چرا یه آی؟ چرا دقیقا آی چپ؟ مجدد به قرآن باز می گردیم. زمانی که به ابراهیم ع دستور غربانننی رسید، ازا ز ززی ییل تجسم پیدا کرد و سعی کرد ابراهیم را منع کند ولی ابراهیم با یک سنگ هدف گیری دقیقی کرد و یکی از چشمان ازا زیی ل را گرفت. بنا ها دقیقا از خود ازا زیل دستور می گیرند و آی دقیقا نمادِ خود ازا ز ی ل است. به موضوع دیگیری اشاره می کنیم. توجه کرده اید در همین مووی او تاار یا مووی های سری جیکس من یا خیلی بازی های دیگه چرا کسی که خردمندترینه معلولیتی داره؟ بر طبق شواهدی که عبور می کنیم، یکی از ش یییی ا ت ین ی که با بنا های انسونی در ارتباط است این ویژگی را دارد. برای جمع بندی این موضوع، به یک مثال اشاره می کنیم که نشانه هایش را راحت بتوان پیدا کرد و به یکی از ویژگیهای علف ها اشاره می کند که در مووی جیکسس منن آخر و زم وون اشاره میشد. شیخ مطهر )*ی قضیه را رد می کند ولی ما بر طبق گفته های کسی که او را بیشتر قبول داریم پیش می رویم. زمان سید بروج+++ رد ی مجلس ختمی برای یکی از علف ها گرفته شد. این علف همانی بود که در ظهر ع ا __ شور ا درخواست کمک رساندن داد ولی اولین حسین ع درخواستش را رد کرد و فرمود که مرد م باید ام تحان شوند. دقیقا به عمر بالای علف ها و محمد آخر اشاره های فراوانی در فیلم شده‌بود. حتی زمان ب ی عت مردم هم کاملا قرار داده شده‌بود. پارسال که فیلم دون اکران شد کاملا می‌دانستیم هدف چیست. چه شکلی می‌شود در میان آن همه کلمه انگلیسی به یک باره نام مه __ دی و م و،،لا آورده‌شود؟ فیلم به قدری دقیق بود که حتی اکتور م ن ج__ی هم با وسواس انتخاب شده‌بود. در آیین بچه های یع قو ب، از مادر جویش بودن به ارث می‌رسد. در اس لا م سید بود ن از پدر. اکتر مووی دون مادرش ج وییش است. لازم است بدانید یکی از طرح‌های الهی برای اتمام حجت با فرزندان یعقوب وراثت آخرین محمد است که از مادر جوییش و از پدر س -ید هستند. به نوعی همه چیز به ابراهی م نب ی باز می‌گردد. به اسماع ی ل وا سحا قق. همه چیز در فرزند ریشه‌های زمین خلاصه خواهد شد.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#خبر #تئوری_توطئه
What are equivariance and invariance?!
These concepts are used in geometric deep learning widely.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
تو پایتون چی کارا نکنیم - بخش 1

لیست‌ها

نوشتنِ کد در پایتون که حداقل‌‌های بهینگی را داشته باشد از مهم‌ترین نیازهایی است که لازم است رعایت‌‌شود. یکی از پرکاربردترین ساختارهای داده‌ای در پایتون لیست است. سعی کنید اگر قرار است آیتم‌های متوالی و زیاد اضافه کنید، تا جای ممکن از تابع append استفاده نکنید و از generator ها یا list comprehension تا جای ممکن استفاده‌کنید. علت این موضوع این است که لیست‌ها ساختارهایی هستند که طول برایشان به صورتِ مستقیم تعریف نمی‌شود در حالی که اگر با زبان‌هایی مثل سی کارکرده‌باشید، می‌دانید که لازم است حتما طول آرایه مشخص باشد. رفتار لیست‌ها در پایتون به این شکل است که در سایزهایی مشخص، اگر طولِ بیشتر لازم بود، لیستِ قبلی به یک لیستِ بزرگ‌تر منتقل‌می‌شود. این کار سربارِ کپی‌کردن دارد. این گونه فرض کنید که اگر لیست‌ها در اندازه‌ی 10، 20، 50 و 100 نیاز باشد که به لیستِ بزرگ‌تر منتقل‌شوند، در این نقاط باید کپی انجام‌شود. براین اساس، چهار کپی خواهیم‌داشت که یکی از دیگری سنگین‌تر خواهدبود. سعی کنید از کدی مثل قطعه کد پایین تا می‌شود استفاده‌نکنید.

a = []
for item in range(100_000):
a.append(item)

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #پایتون
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از یادگیری عمیق در پروژه های تجاری - بخش 19

داده‌های مصنوعی

یکی از مواردی که در بینایی ماشین بسیار پرطرفدار است، استفاده از داده‌هایی است که با کمکِ نرم‌افزارهای سه بعدی به صورتِ مصنوعی ساخته‌می‌شوند. شبکه‌های پیچشی بدلیلِ نیاز بالا به داده، همواره احتیاج‌دارند که از زوایای مختلف داده‌ها را دیده‌باشند تا در زمان ارزیابی بتوانند عمل‌کردِ مناسب را داشته‌باشند. خیلی از افراد برای این منظور، سعی می‌کنند با موتورهای پردازشی، تصاویر با زوایای دیدِ مختلف بسازند. این کار مناسب است ولی دارای خطراتی است.

در ابتدا لازم است دقت کنید که توزیعِ دسته‌های متفاوت بهم نریزید. به شدت باید مراقب بود که بالانسِ دسته‌های مختلف با این کار بهم نریزد. در غیر این صورت، عملکردِ شبکه برروی دادگانِ واقعی بهم‌می‌ریزد.

موضوع مهم بعدی این است که این یک درمان موقت است و نباید انتظار داشت روی همه‌ی زوایای دید خوب جواب‌گرفت. علت این است که معمولا بافت‌هایی که بوسیله‌ی این‌گونه نرم‌افزارها فراهم می‌شود، محدودهستند؛ بنابراین، افزایش داده به این روش، ملاحظاتِ خاص خود را دارد.

به صورتِ کلی، همواره در افزایش داده سعی کنید محدودیت‌های روش را همان ابتدا در بیاورید تا بدانید در انتهای کار، روش به شما چه چیزی را خواهدداد؛ از سویی، این موارد را لازم است به صورتِ سند در بیاورید تا همه در جریانِ وضعیتِ کنونیِ مجموعه دادگان باشند.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Media is too big
VIEW IN TELEGRAM
یکی از زمینه‌های بسیار هیجان‌انگیزِ یادگیری عمیق Variational Auto Encoder است که کم‌تر به آن پرداخته بودیم.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #ویدیو #شبکه_عصبی #variational
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
چه مباحثی از ریاضیات برای فعالیت در زمینه‌ی یادگیری لازم است؟!

یکی از سوالاتی که خیلی از ما پرسیده می‌شود، این است که چه مباحثی از ریاضیات لازم است تا بتوان در زمینه‌های متفاوتِ یادگیری فعالیت کرد. به صورتِ کلی، می‌توان به دو قسمت مباحث را تفکیک کرد. مباحثی که نیاز است حتما بدانید و مباحثی که لازم است با توجه به شاخه‌ی فعالیت آن‌ها را مطالعه کنید. در زمینه‌ی مباحثِ اجباری، می‌توان به آمار، جبرِ خطی، فرآیندهای تصادفی، بهینه‌سازی، ریاضیاتِ 1 و 2 دانشگاه و سیگنال و سیستم اشاره‌کرد. در زمینه‌ی مباحثِ غیرِ اجباری، با توجه به زمینه‌ی فعالیت تعیین می‌شود ولی مثلا اگر قرار باشد در حوزه‌ی شبکه‌های گرافی یا شبکه‌های اسپایکین کار کنید، شاید به مباحثی از ریاضیات که دانشجویانِ برق نیاز دارند، احتیاج داشته‌باشید یا کار کردن در زمینه‌ی شبکه‌های کانولوشنیِ گروهی به دانشِ نظریه‌ی گروه و مباحثی از جبرِ ابسترکت نیاز دارد. در ادامه مباحثِ اجباری را به صورتِ کلی بررسی می‌کنیم.

شناختِ آمار از این باب اهمیت دارد که باید توزیع‌های متفاوت را بشناسید و مفاهیمِ نمونه‌برداری و تفاوت‌های میانِ نمونه و جمعیت را بشناسید و سایرِ مباحث که احتمالا در مقالات آن‌ها را دیده‌اید که در زمینه‌ی تعاریفِ مربوط به ساختِ مجموعه دادگان و تعریفِ تابعِ هزینه نقش دارند.

شناختِ جبرِ خطی از این جهت مهم است که در یادگیری، محاسبات نیاز است که سریع انجام شوند و این‌کار نیاز به محاسباتِ ماتریسی دارد. قرار دادنِ اعداد در ماتریس سبب می‌شود که یکسری ویژگی‌ها بوجود آیند که در این شاخه از ریاضیات، این مباحث بررسی می‌شوند. اگر مباحثِ این شاخه را خوب متوجه شوید، روابطِ مقالات را می‌توانید به خوبی تفسیر کنید.

فرآیندِ تصادفی شاید کلیدی‌ترین نیاز بعد از یادگیری دو مبحثِ بالا باشد. دانستنِ ویژگی‌های فرآیندهای مختلف در زمینه‌ی یادگیری تقویتی عمیق بسیار موردِ نیاز است. با این حال، در مقالاتِ سایرِ زمینه‌های شبکه‌های عصبی، بارها خواهید دید که از مباحثِ این حوزه استفاده شده‌است.

در موردِ ریاضیاتِ یک و دو تمامیِ زمینه‌ها نیاز نیستند ولی به هر حال لازم است که شما دانشِ کاملی از مباحثِ موجود در دبیرستان نظیرِ حد و مشتق را بدانید و بتوانید این مباحث را به فضاهای بالاتر بسط دهید. شاید یکی از ابتدایی‌ترین گام‌ها برای فراگیریِ ریاضیات، این قسمت باشد ولی مباحث در این حوزه خیلی چالش برانگیز نیستند و بدلیلِ این‌که در دبیرستان خیلی دیده شده‌اند، می‌توان خیلی سریع مرور شوند.

بهینه‌سازی را می‌توان مهم‌ترین درسِ رشته‌های کامپیوتری در ارشد نامید. این حوزه به قدری بزرگ است که خودش در کارشناسیِ ارشد رشته دارد. در این زمینه خیلی باید با احتیاط پیش بروید و مباحثی که لازم می‌شوند را مطالعه کنید. به همین خاطر، مباحثی نظیرِ همگرایی چندان در یادگیریِ کاربردی اهمیت ندارند و دانستنِ مفاهیمِ پایه در بهینه سازیِ خطی می‌تواند راه‌گشا باشد.

سیگنال و سیستم را می‌توان مهم‌ترین درسِ کارشناسی در مهندسیِ کامپیوتر دانست. شاید مقالاتی که به صورتِ مستقیم از مفاهیمِ سیگنال استفاده می‌کنند بازه‌ی محدودی را در بر گیرند ولی داشتنِ دیدِ سیگنالی از مهم‌ترین نیازهایی است که حتما باید داشته‌باشید و روی این موضوع تاکید می‌کنیم.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #تجربه_کاری #ریاضیات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
2025/06/29 09:53:17
Back to Top
HTML Embed Code: