دوره یادگیری عمیق با رویکرد ریاضی محور
https://biasvariance.ir
فایلِ سرفصل ها در لینک زیر قرار دارد:
https://biasvariance.ir/dynamic_files/courses/sections/Curriculum_QOg1XW5.pdf
ویژگی های دوره :
- بررسی مقالات کلیدی
- بررسی جزئیات عملیات شبکه ها
- بررسی یادگیری عمیق در حوزه های بینایی ماشین، پردازش زبان طبیعی و ...
- بررسی عملکرد شبکه ها و مقایسه آنها
- بررسی بهینه سازی محدب، آمار، ریاضیات و جبر خطی مربوط به یادگیری عمیق
#دوره_آموزشی #اطلاع_رسانی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
https://biasvariance.ir
فایلِ سرفصل ها در لینک زیر قرار دارد:
https://biasvariance.ir/dynamic_files/courses/sections/Curriculum_QOg1XW5.pdf
ویژگی های دوره :
- بررسی مقالات کلیدی
- بررسی جزئیات عملیات شبکه ها
- بررسی یادگیری عمیق در حوزه های بینایی ماشین، پردازش زبان طبیعی و ...
- بررسی عملکرد شبکه ها و مقایسه آنها
- بررسی بهینه سازی محدب، آمار، ریاضیات و جبر خطی مربوط به یادگیری عمیق
#دوره_آموزشی #اطلاع_رسانی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یادگیری ژرف گونهای از الگوریتمهای یادگیری ماشین است که وابسته به انجام تعداد زیادی محاسبه است. از زمان معرفی این دسته از الگوریتمهای یادگیری که با نام شبکههای عصبی نیز شناخته میشوند، سالها سپری شده است ولی رشد واقعی این دسته از روشها به سالهای اخیر و همزمان با پیشرفت رایانههای تک عملیات چند داده باز میگردد. این دسته از یادگیری به دلیل حجم بالای محاسبات در زمان آموزش و بازشناسی ، برای سالها مورد استفاده قرار نمیگرفت تا اینکه در سال 2012 و با پیشرفت سخت افزارهای پردازشی، در رقابتی در حوزهی بینایی ماشین مورد استفاده قرار گرفت و بیسابقهترین نتایج را تا آن زمان بدست آورد.
در سالهای اخیر و با بهبود سخت افزارهای رایانهای، رایانههای تک عملیات چند داده پیشرفت چشمگیری داشتهاند. این پیشرفت سبب شده که واحدهای پردازشگر گرافیکی نیز افزایش سرعت و کارایی داشته باشند، به نحوی که توان امروز آنها چندین برابر سالهای نزدیک پیشین است. قدرت این رایانهها در انجام کارهای تکراری روی دادههای ماتریسی است. این عمل سبب میشود بتوانند یک عملیات مشخص را همزمان بر روی چند داده انجام دهند. با این کار، عملیاتی که با واحد پردازشگر مرکزی ممکن است ساعتها طول بکشد در کمتر از یک ثانیه قابلیت انجام خواهد داشت.
کلیتِ روشهای تحتِ نظارتِ یادگیریِ ژرف به این صورت است که شبکه، ورودی و خروجیِ مربوط به دادههای آموزش را دریافت میکند و با توجه به پارامترها و محاسباتی که در داخل شبکه وجود دارد، خروجیِ شبکه روی دادههای ورودیِ آموزش محاسبه میشود. با استفاده از یک تابع هزینه ، خطایی که شبکه برای محاسبهی خروجی دارد، محاسبه میشود. در ادامه، با استفاده از روشهای بهینهسازی، تلاش میشود وزنها به گونهای تغییر کنند تا خطا بر روی دادگان آموزش کم شود.
#دوره_آموزشی #اطلاع_رسانی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
در سالهای اخیر و با بهبود سخت افزارهای رایانهای، رایانههای تک عملیات چند داده پیشرفت چشمگیری داشتهاند. این پیشرفت سبب شده که واحدهای پردازشگر گرافیکی نیز افزایش سرعت و کارایی داشته باشند، به نحوی که توان امروز آنها چندین برابر سالهای نزدیک پیشین است. قدرت این رایانهها در انجام کارهای تکراری روی دادههای ماتریسی است. این عمل سبب میشود بتوانند یک عملیات مشخص را همزمان بر روی چند داده انجام دهند. با این کار، عملیاتی که با واحد پردازشگر مرکزی ممکن است ساعتها طول بکشد در کمتر از یک ثانیه قابلیت انجام خواهد داشت.
کلیتِ روشهای تحتِ نظارتِ یادگیریِ ژرف به این صورت است که شبکه، ورودی و خروجیِ مربوط به دادههای آموزش را دریافت میکند و با توجه به پارامترها و محاسباتی که در داخل شبکه وجود دارد، خروجیِ شبکه روی دادههای ورودیِ آموزش محاسبه میشود. با استفاده از یک تابع هزینه ، خطایی که شبکه برای محاسبهی خروجی دارد، محاسبه میشود. در ادامه، با استفاده از روشهای بهینهسازی، تلاش میشود وزنها به گونهای تغییر کنند تا خطا بر روی دادگان آموزش کم شود.
#دوره_آموزشی #اطلاع_رسانی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Telegram
Bias Variance
🌴 سایت:
https://biasvariance.net
🌺 کانال تلگرام:
@biasvariance_ir
🌳 پشتیبانی:
@biasvariance
🌷 اینستاگرام:
https://www.instagram.com/bvariance/
https://biasvariance.net
🌺 کانال تلگرام:
@biasvariance_ir
🌳 پشتیبانی:
@biasvariance
🌷 اینستاگرام:
https://www.instagram.com/bvariance/
در ادامه می توانید تعدادی از فیلم های دوره یادگیری عمیق با رویکرد ریاضی محور را به عنوان نمونه مشاهده کنید:
https://www.aparat.com/playlist/1124527
#دوره_آموزشی #اطلاع_رسانی #ویدیو #یادگیری_عمیق
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
https://www.aparat.com/playlist/1124527
#دوره_آموزشی #اطلاع_رسانی #ویدیو #یادگیری_عمیق
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
آپارات - سرویس اشتراک ویدیو
Deep Learning Engineer - لیست پخش
طراحی loss function در یادگیری عمیق - وبسایت بایاس واریانس,فیلم آموزشی نمونه - subderivative - یادگیری عمیق,فیلم آموزشی نمونه - loss function for multi label classification - یادگیری عمیق,فیلم آموزشی نمونه - گراف محاسبات - یادگیری عمیق,فیلم آموزشی نمونه …
سوالی که برای خیلی از دانشجویان در این ایام که دانشگاه ها تعطیل هستند به وجود می آید این است که آیا روش رایگانی برای آموزش شبکه های عصبی وجود دارد؟ در لینک پایین می توانید پاسخ این سوال را مشاهده کنید:
Are there free cloud services to train machine learning models?
#نکته_آموزشی #دیتاساینس #یادگیری_عمیق
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Are there free cloud services to train machine learning models?
#نکته_آموزشی #دیتاساینس #یادگیری_عمیق
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Data Science Stack Exchange
Are there free cloud services to train machine learning models?
I want to train a deep model with a large amount of training data, but my desktop does not have that power to train such a deep model with these abundant data.
I'd like to know whether there are ...
I'd like to know whether there are ...
تعدادی از مقالات مهم و کلیدی در زمینه Deep Reinforcement Learning:
- https://arxiv.org/pdf/1511.05952.pdf
- https://arxiv.org/pdf/1511.06581.pdf
- https://arxiv.org/pdf/1509.06461.pdf
#معرفی_مقاله #یادگیری_تقویتی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
- https://arxiv.org/pdf/1511.05952.pdf
- https://arxiv.org/pdf/1511.06581.pdf
- https://arxiv.org/pdf/1509.06461.pdf
#معرفی_مقاله #یادگیری_تقویتی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
حتما می دانید که شافل کردن داده امری ضروری در یادگیری است. علت اصلی این کار این است که لازم است داده ها مستقل از یکدیگر شوند تا در تابع هزینه بتوان توزیع داده ها را مارجینال کرد. به عبارتی دیگر توزیع joint داده ها به ضرب توزیعهای مارجینال تغییر پیدا می کند تا بتوان برای شبکه، تابع هزینه مناسبی داشت. گونه دیگری از یادگیری وجود دارد که می توان در آن داده ها را شافل نکرد و از ترتیب داده ها می توان دانش کسب کرد. ایده این نوع یادگیری با شبکه های عصبی و ادغامشان می تواند ایده مناسبی برای روشهای نوین باشد.
مقاله: https://ronan.collobert.com/pub/matos/2009_curriculum_icml.pdf
Humans and animals learn much better when the examples are not randomly presented but organized in a meaningful order which illustrates gradually more concepts, and gradually more complex ones. Here, we formalize such training strategies in the context of machine learning, and call them “curriculum learning”. In the context of recent research studying the difficulty of training in the presence of non-convex training criteria (for deep deterministic and stochastic neural networks), we explore curriculum learning in various set-ups. The experiments show that significant improvements in generalization can be achieved. We hypothesize that curriculum learning has both an effect on the speed of convergence of the training process to a minimum and, in the case of non convex criteria, on the quality of the local minima obtained: curriculum learning can be seen as a particular form of continuation method (a general strategy for global optimization of non-convex functions).
لینک مقاله مروری: https://arxiv.org/abs/2101.10382
#معرفی_مقاله #یادگیری_عمیق #یادگیری_ماشین
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
مقاله: https://ronan.collobert.com/pub/matos/2009_curriculum_icml.pdf
Humans and animals learn much better when the examples are not randomly presented but organized in a meaningful order which illustrates gradually more concepts, and gradually more complex ones. Here, we formalize such training strategies in the context of machine learning, and call them “curriculum learning”. In the context of recent research studying the difficulty of training in the presence of non-convex training criteria (for deep deterministic and stochastic neural networks), we explore curriculum learning in various set-ups. The experiments show that significant improvements in generalization can be achieved. We hypothesize that curriculum learning has both an effect on the speed of convergence of the training process to a minimum and, in the case of non convex criteria, on the quality of the local minima obtained: curriculum learning can be seen as a particular form of continuation method (a general strategy for global optimization of non-convex functions).
لینک مقاله مروری: https://arxiv.org/abs/2101.10382
#معرفی_مقاله #یادگیری_عمیق #یادگیری_ماشین
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یکی از مشکلات شبکه های autoencoder قسمت deconvolution است. در این مرحله به علت انجام عملیات deconvolution، قسمت های میانی روی هم افتادگی خواهند داشت که این سبب می شود حالت شطرنجی در activation map ها به وجود بیاید. یک راه جایگزین این است که به جای deconvolution ابتدا feature map ها را بزرگ کنیم و بعد convolution اعمال کنیم. در این حالت می توانیم با این گونه عملیات از فضای latent و اطلاعات encode شده به فضای با ابعاد بالاتر برویم. عملیات بزرگ کردن با interpolation انجام می شود که مشتق پذیر است.
#نکته_آموزشی #یادگیری_عمیق #auto_encoder
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
#نکته_آموزشی #یادگیری_عمیق #auto_encoder
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
روشهای ارزیابی در یادگیری cheat sheet
http://www.damienfrancois.be/blog/files/modelperfcheatsheet.pdf
#نکته_آموزشی #ارزیابی_عملکرد #یادگیری_ماشین
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
http://www.damienfrancois.be/blog/files/modelperfcheatsheet.pdf
#نکته_آموزشی #ارزیابی_عملکرد #یادگیری_ماشین
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Media is too big
VIEW IN TELEGRAM
در یادگیری ما گونه خاصی از inference را داریم. به صورت کلی، حالت هایی که وجود دارند برای inference عبارتند از abduction, induction و deduction. آیا می دانید در یادگیری با نظارت، دقیقا از کدام inference استفاده می کنیم؟
#نکته_آموزشی #دوره_آموزشی #اطلاع_رسانی #ویدیو #یادگیری_عمیق #abduction
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
#نکته_آموزشی #دوره_آموزشی #اطلاع_رسانی #ویدیو #یادگیری_عمیق #abduction
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
آیا راهکاری وجود دارد تا بتوان سایر ویژگیها را در کنار تصویر به یک شبکه کانولوشنی داد؟
https://datascience.stackexchange.com/q/31388/28175
#نکته_آموزشی #آموزش_شبکه_عصبی #یادگیری_عمیق #دیتاساینس
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
https://datascience.stackexchange.com/q/31388/28175
#نکته_آموزشی #آموزش_شبکه_عصبی #یادگیری_عمیق #دیتاساینس
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Data Science Stack Exchange
How to add non-image features along side images as the input of CNNs
I'm training a convolutional neural network to classify images on fog conditions (3 classes). However, for each of about 150.000 images I also have four meteorological variables available that migh...
روشهای بصری سازی شبکه های عصبی
https://datascience.stackexchange.com/q/12851/28175
#نکته_آموزشی #دیتاساینس #یادگیری_عمیق #بصری_سازی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
https://datascience.stackexchange.com/q/12851/28175
#نکته_آموزشی #دیتاساینس #یادگیری_عمیق #بصری_سازی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Data Science Stack Exchange
How do you visualize neural network architectures?
When writing a paper / making a presentation about a topic which is about neural networks, one usually visualizes the networks architecture.
What are good / simple ways to visualize common archite...
What are good / simple ways to visualize common archite...
مقاله Noisy Network که یک مقاله برجسته در حوزه یادگیری است.
https://arxiv.org/pdf/1706.10295.pdf
We introduce NoisyNet, a deep reinforcement learning agent with parametric noise added to its weights, and show that the induced stochasticity of the agent’s policy can be used to aid efficient exploration. The parameters of the noise are learned with gradient descent along with the remaining network weights. NoisyNet is straightforward to implement and adds little computational overhead. We find that replacing the conventional exploration heuristics for A3C, DQN and Dueling agents (entropy reward and ?-greedy respectively) with NoisyNet yields substantially higher scores for a wide range of Atari games, in some cases advancing the agent from sub to super-human performance.
همچنین، در این مقاله پیشنهادهای جالبی برای شبکه های با نظارت شده است.
#معرفی_مقاله #یادگیری_عمیق_تقویتی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
https://arxiv.org/pdf/1706.10295.pdf
We introduce NoisyNet, a deep reinforcement learning agent with parametric noise added to its weights, and show that the induced stochasticity of the agent’s policy can be used to aid efficient exploration. The parameters of the noise are learned with gradient descent along with the remaining network weights. NoisyNet is straightforward to implement and adds little computational overhead. We find that replacing the conventional exploration heuristics for A3C, DQN and Dueling agents (entropy reward and ?-greedy respectively) with NoisyNet yields substantially higher scores for a wide range of Atari games, in some cases advancing the agent from sub to super-human performance.
همچنین، در این مقاله پیشنهادهای جالبی برای شبکه های با نظارت شده است.
#معرفی_مقاله #یادگیری_عمیق_تقویتی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Telegram
Bias Variance
🌴 سایت:
https://biasvariance.net
🌺 کانال تلگرام:
@biasvariance_ir
🌳 پشتیبانی:
@biasvariance
🌷 اینستاگرام:
https://www.instagram.com/bvariance/
https://biasvariance.net
🌺 کانال تلگرام:
@biasvariance_ir
🌳 پشتیبانی:
@biasvariance
🌷 اینستاگرام:
https://www.instagram.com/bvariance/
اگر پردازش تصویر و کامپیوتر ویژن کار کرده باشید حتما با wavelet آشنا هستید. ترکیب wavelet با شبکه های کانولوشنی ایده جالبی است که در مقاله بالا به آن پرداخته شده است.
Purpose: Manual brain tumor segmentation is a challenging task that requires the use of machine learning techniques. One of the machine learning techniques that has been given much attention is the convolutional neural network (CNN). The performance of the CNN can be enhanced by combining other data analysis tools such as wavelet transform. Materials and methods: In this study, one of the famous implementations of CNN, a fully convolutional network (FCN), was used in brain tumor segmentation and its architecture was enhanced by wavelet transform. In this combination, a wavelet transform was used as a complementary and enhancing tool for CNN in brain tumor segmentation.
#معرفی_مقاله #یادگیری_عمیق #بینایی_ماشین
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Purpose: Manual brain tumor segmentation is a challenging task that requires the use of machine learning techniques. One of the machine learning techniques that has been given much attention is the convolutional neural network (CNN). The performance of the CNN can be enhanced by combining other data analysis tools such as wavelet transform. Materials and methods: In this study, one of the famous implementations of CNN, a fully convolutional network (FCN), was used in brain tumor segmentation and its architecture was enhanced by wavelet transform. In this combination, a wavelet transform was used as a complementary and enhancing tool for CNN in brain tumor segmentation.
#معرفی_مقاله #یادگیری_عمیق #بینایی_ماشین
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یکی از پرکاربردترین زمینه های بینایی ماشین face detection است. در مقاله ای که به تازگی با نام img2pos منتشر شده است، نتایج برجسته ای بدست آمده است که در تصویر شاهد آن هستید.
لینک مقاله
#معرفی_مقاله #بینایی_ماشین #تشخیص_صورت
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
لینک مقاله
#معرفی_مقاله #بینایی_ماشین #تشخیص_صورت
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
در مقالات اخیر بحثی مطرح شده است که زمینه مناسبی برای فعالیت در حوزه یادگیری عمیق برای نوشتن پایان نامه و مقاله است. Vision Transformer بیان می کند که می توانیم از transformer ها که در NLP استفاده می شوند در حوزه computer vision استفاده کنیم. مقاله Searching for Efficient Multi-Stage Vision Transformers که اخیرا نگاشته شده است مربوط به این حوزه است. کد این مقاله متن باز است که می توانید در اینجا مشاهده کنید.
Vision Transformer (ViT) demonstrates that Transformer for natural language processing can be applied to computer vision tasks and result in comparable performance to convolutional neural networks (CNN), which have been studied and adopted in computer vision for years. This naturally raises the question of how the performance of ViT can be advanced with design techniques of CNN. To this end, we propose to incorporate two techniques and present ViT-ResNAS, an efficient multi-stage ViT architecture designed with neural architecture search (NAS). First, we propose residual spatial reduction to decrease sequence lengths for deeper layers and utilize a multi-stage architecture. When reducing lengths, we add skip connections to improve performance and stabilize training deeper networks. Second, we propose weight-sharing NAS with multi architectural sampling. We enlarge a network and utilize its sub-networks to define a search space. A super-network covering all sub-networks is then trained for fast evaluation of their performance. To efficiently train the super-network, we propose to sample and train multiple sub-networks with one forward-backward pass. After that, evolutionary search is performed to discover high-performance network architectures. Experiments on ImageNet demonstrate that ViT-ResNAS achieves better accuracy-MACs and accuracy-throughput trade-offs than the original DeiT and other strong baselines of ViT.
لینک مقاله
#معرفی_مقاله #یادگیری_عمیق #transformer #پیشنهاد_موضوع
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Vision Transformer (ViT) demonstrates that Transformer for natural language processing can be applied to computer vision tasks and result in comparable performance to convolutional neural networks (CNN), which have been studied and adopted in computer vision for years. This naturally raises the question of how the performance of ViT can be advanced with design techniques of CNN. To this end, we propose to incorporate two techniques and present ViT-ResNAS, an efficient multi-stage ViT architecture designed with neural architecture search (NAS). First, we propose residual spatial reduction to decrease sequence lengths for deeper layers and utilize a multi-stage architecture. When reducing lengths, we add skip connections to improve performance and stabilize training deeper networks. Second, we propose weight-sharing NAS with multi architectural sampling. We enlarge a network and utilize its sub-networks to define a search space. A super-network covering all sub-networks is then trained for fast evaluation of their performance. To efficiently train the super-network, we propose to sample and train multiple sub-networks with one forward-backward pass. After that, evolutionary search is performed to discover high-performance network architectures. Experiments on ImageNet demonstrate that ViT-ResNAS achieves better accuracy-MACs and accuracy-throughput trade-offs than the original DeiT and other strong baselines of ViT.
لینک مقاله
#معرفی_مقاله #یادگیری_عمیق #transformer #پیشنهاد_موضوع
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
GitHub
GitHub - yilunliao/vit-search: Code for "Searching for Efficient Multi-Stage Vision Transformers"
Code for "Searching for Efficient Multi-Stage Vision Transformers" - GitHub - yilunliao/vit-search: Code for "Searching for Efficient Multi-Stage Vision Transformers"