اثر دانینگ–کروگر (به انگلیسی: Dunning–Kruger effect) نوعی سوگیری شناختی در افراد غیرحرفهای است که از توهم برتری رنج میبرند و به اشتباه، تواناییشان را بسیار بیش از اندازهٔ واقعی ارزیابی میکنند. این جانبداری به ناتوانی فراشناختی افراد غیرحرفهای در شناسایی ناتوانی های شان نسبت داده میشود. بر خلاف آن، افراد حرفهای، گرایش بیشتری به دستکمگرفتن شایستگی خود داشته و به اشتباه تصور میکنند، کاری که برای ایشان آسان است، برای دیگران نیز آسان خواهد بود. دیوید دانینگ و جاستین کروگر از دانشگاه کرنل اینگونه نتیجه میگیرند: «تخمین نادرست فرد بیلیاقت، از اشتباه در ارزیابی خود ناشی میشود؛ درحالیکه تخمین نادرست افراد بسیار بالیاقت، از اشتباه در ارزیابی دیگران نشئت میگیرد.»
#زنگ_تفریح
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
#زنگ_تفریح
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Media is too big
VIEW IN TELEGRAM
همانطور که می دانید استفاده از یادگیری عمیق در کارهای روزمره امروز اجتناب ناپذیر است. اخیرا مقاله ای چاپ شده که از یادگیری عمیق و روشهای detection در کشاورزی و برای پیدا کردن گوجه های کال استفاده می شود. نتایج و استفاده های این مقاله بسیار جالب است و قابلیت استفاده بالایی در صنعت کشاورزی دارد.
لینک مقاله
The development of robotic solutions for agriculture requires advanced perception capabilities that can work reliably in any crop stage. For example, to automatise the tomato harvesting process in greenhouses, the visual perception system needs to detect the tomato in any life cycle stage (flower to the ripe tomato). The state-of-the-art for visual tomato detection focuses mainly on ripe tomato, which has a distinctive colour from the background. This paper contributes with an annotated visual dataset of green and reddish tomatoes. This kind of dataset is uncommon and not available for research purposes. This will enable further developments in edge artificial intelligence for in situ and in real-time visual tomato detection required for the development of harvesting robots. Considering this dataset, five deep learning models were selected, trained and benchmarked to detect green and reddish tomatoes grown in greenhouses. Considering our robotic platform specifications, only the Single-Shot MultiBox Detector (SSD) and YOLO architectures were considered. The results proved that the system can detect green and reddish tomatoes, even those occluded by leaves. SSD MobileNet v2 had the best performance when compared against SSD Inception v2, SSD ResNet 50, SSD ResNet 101 and YOLOv4 Tiny, reaching an F1-score of 66.15 %, ...
#معرفی_مقاله #یادگیری_عمیق #object_detection
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
لینک مقاله
The development of robotic solutions for agriculture requires advanced perception capabilities that can work reliably in any crop stage. For example, to automatise the tomato harvesting process in greenhouses, the visual perception system needs to detect the tomato in any life cycle stage (flower to the ripe tomato). The state-of-the-art for visual tomato detection focuses mainly on ripe tomato, which has a distinctive colour from the background. This paper contributes with an annotated visual dataset of green and reddish tomatoes. This kind of dataset is uncommon and not available for research purposes. This will enable further developments in edge artificial intelligence for in situ and in real-time visual tomato detection required for the development of harvesting robots. Considering this dataset, five deep learning models were selected, trained and benchmarked to detect green and reddish tomatoes grown in greenhouses. Considering our robotic platform specifications, only the Single-Shot MultiBox Detector (SSD) and YOLO architectures were considered. The results proved that the system can detect green and reddish tomatoes, even those occluded by leaves. SSD MobileNet v2 had the best performance when compared against SSD Inception v2, SSD ResNet 50, SSD ResNet 101 and YOLOv4 Tiny, reaching an F1-score of 66.15 %, ...
#معرفی_مقاله #یادگیری_عمیق #object_detection
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
www.semanticscholar.org
[PDF] Evaluating the Single-Shot MultiBox Detector and YOLO Deep Learning Models for the Detection of Tomatoes in a Greenhouse…
This paper contributes with an annotated visual dataset of green and reddish tomatoes that will enable further developments in edge artificial intelligence for in situ and in real-time visual tomato detection required for the development of harvesting robots.…
یکی از تسکهای بسیار جالبی که با یادگیری عمیق متحول شد visual navigation است. در این تسک عامل هوشمند سعی می کند با جست و جو در محیط، شی مورد نظرش را پیدا کند. این مساله بسیار چالش برانگیز است. در مقاله ای که اخیرا چاپ شده است راه حلی جالب با استفاده از attention ارایه شده است.
لینک فایل مقاله
لینک کد
Visual Navigation with Spatial Attention:
This work focuses on object goal visual navigation, aiming at finding the location of an object from a given class, where in each step the agent is provided with an egocentric RGB image of the scene. We propose to learn the agent’s policy using a reinforcement learning algorithm. Our key contribution is a novel attention probability model for visual navigation tasks. This attention encodes semantic information about observed objects, as well as spatial information about their place. This combination of the “what” and the “where” allows the agent to navigate toward the sought-after object effectively. The attention model is shown to improve the agent’s policy and to achieve state-of-the-art results on commonly-used datasets.
#معرفی_مقاله #visual_navigation #بینایی_ماشین #attention
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
لینک فایل مقاله
لینک کد
Visual Navigation with Spatial Attention:
This work focuses on object goal visual navigation, aiming at finding the location of an object from a given class, where in each step the agent is provided with an egocentric RGB image of the scene. We propose to learn the agent’s policy using a reinforcement learning algorithm. Our key contribution is a novel attention probability model for visual navigation tasks. This attention encodes semantic information about observed objects, as well as spatial information about their place. This combination of the “what” and the “where” allows the agent to navigate toward the sought-after object effectively. The attention model is shown to improve the agent’s policy and to achieve state-of-the-art results on commonly-used datasets.
#معرفی_مقاله #visual_navigation #بینایی_ماشین #attention
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Paperswithcode
Papers with Code - Visual Navigation with Spatial Attention
Implemented in one code library.
This media is not supported in your browser
VIEW IN TELEGRAM
ویژگی های دوره :
- بررسی مقالات کلیدی
- بررسی جزئیات عملیات شبکه ها
- بررسی یادگیری عمیق در حوزه های بینایی ماشین، پردازش زبان طبیعی و ...
- بررسی عملکرد شبکه ها و مقایسه آنها
- بررسی بهینه سازی محدب، آمار، ریاضیات و جبر خطی مربوط به یادگیری عمیق
#اطلاع_رسانی #یادگیری_عمیق #دوره_آموزشی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
- بررسی مقالات کلیدی
- بررسی جزئیات عملیات شبکه ها
- بررسی یادگیری عمیق در حوزه های بینایی ماشین، پردازش زبان طبیعی و ...
- بررسی عملکرد شبکه ها و مقایسه آنها
- بررسی بهینه سازی محدب، آمار، ریاضیات و جبر خطی مربوط به یادگیری عمیق
#اطلاع_رسانی #یادگیری_عمیق #دوره_آموزشی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Can the number of epochs influence overfitting?
Yes, it may. In machine-learning there is an approach called early stop. In that approach you plot the error rate on training and validation data. The horizontal axis is the number of epochs and the vertical axis is the error rate. You should stop training when the error rate of validation data is minimum. Consequently if you increase the number of epochs, you will have an over-fitted model.
In deep-learning era, it is not so much customary to have early stop. There are different reasons for that but one of them is that deep-learning approaches need so much data and plotting the mentioned graph would be so much wavy because these approaches use stochastic-gradient-like optimizations. In deep-learning again you may have an over-fitted model if you train so much on the training data. To deal with this problem, other approaches are used for avoiding the problem. Adding noise to different parts of models, like drop out or somehow batch normalization with a moderated batch size, help these learning algorithms not to over-fit even after so many epochs.
In general too many epochs may cause your model to over-fit the training data. It means that your model does not learn the data, it memorizes the data. You have to find the accuracy of validation data for each epoch or maybe iteration to investigate whether it over-fits or not.
https://datascience.stackexchange.com/q/27561/28175
#نکته_آموزشی #دیتاساینس #یادگیری_عمیق #overfitting
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Yes, it may. In machine-learning there is an approach called early stop. In that approach you plot the error rate on training and validation data. The horizontal axis is the number of epochs and the vertical axis is the error rate. You should stop training when the error rate of validation data is minimum. Consequently if you increase the number of epochs, you will have an over-fitted model.
In deep-learning era, it is not so much customary to have early stop. There are different reasons for that but one of them is that deep-learning approaches need so much data and plotting the mentioned graph would be so much wavy because these approaches use stochastic-gradient-like optimizations. In deep-learning again you may have an over-fitted model if you train so much on the training data. To deal with this problem, other approaches are used for avoiding the problem. Adding noise to different parts of models, like drop out or somehow batch normalization with a moderated batch size, help these learning algorithms not to over-fit even after so many epochs.
In general too many epochs may cause your model to over-fit the training data. It means that your model does not learn the data, it memorizes the data. You have to find the accuracy of validation data for each epoch or maybe iteration to investigate whether it over-fits or not.
https://datascience.stackexchange.com/q/27561/28175
#نکته_آموزشی #دیتاساینس #یادگیری_عمیق #overfitting
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Data Science Stack Exchange
Can the number of epochs influence overfitting?
I am using a convolution neural network ,CNN. At a specific epoch, I only save the best CNN model weights based on improved validation accuracy over previous epochs.
Does increasing the number of ...
Does increasing the number of ...
Media is too big
VIEW IN TELEGRAM
افزایش کیفیت کد پایتون - کتابخانه sphinx
حتما دیده اید که زمانی که در jupyter notebook می خواهید توضیحات توابع و کتابخانه هایی مثل pytorch را بررسی کنید، یکسری علایم خاص وجود دارد. آیا با این علایم آشنا هستید؟
#دوره_آموزشی #sphinx #اطلاع_رسانی #pytorch #تنسورفلو #tensorflow
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
حتما دیده اید که زمانی که در jupyter notebook می خواهید توضیحات توابع و کتابخانه هایی مثل pytorch را بررسی کنید، یکسری علایم خاص وجود دارد. آیا با این علایم آشنا هستید؟
#دوره_آموزشی #sphinx #اطلاع_رسانی #pytorch #تنسورفلو #tensorflow
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Media is too big
VIEW IN TELEGRAM
افزایش کیفیت کد پایتون (بزودی) - pycharm
آیا از قابلیتهای متفاوت پایچارم برای راحتی کار آشنا هستید؟
#ویدیو #اطلاع_رسانی #pycharm #دوره_آموزشی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
آیا از قابلیتهای متفاوت پایچارم برای راحتی کار آشنا هستید؟
#ویدیو #اطلاع_رسانی #pycharm #دوره_آموزشی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Forwarded from Bias Variance
This media is not supported in your browser
VIEW IN TELEGRAM
در این کلیپ که یک نابغه چینی طراحی کرده است، اگر می بینید که اسب به جلو حرکت می کند، شما یک فرد مغز چپ هستید! یعنی اهل تحلیل، منطق، دقت و حساب و کتاب هستید! اما اگر می بینید اسب به عقب می رود، شما یک فرد با مغز راست هستید! یعنی خلاق، هنر دوست، با احساس و روحیه ای بسیار لطیف و مهربان دارید! برای دوستان خود ارسال کنید تا آنها هم بفهمند چپ مغز یا راست مغز هستند!
@biasvariance_ir
@biasvariance_ir
Media is too big
VIEW IN TELEGRAM
افزایش کیفیت کد پایتون (بزودی) - code smell
زبان پایتون - code smell
#ویدیو #اطلاع_رسانی #دوره_آموزشی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
زبان پایتون - code smell
#ویدیو #اطلاع_رسانی #دوره_آموزشی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
نحوه نوشتن مقاله علمی
https://www.et.byu.edu/~wheeler/scientific_paper_guide.pdf
#نوشتن_مقاله #نکته_آموزشی #فایل
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
https://www.et.byu.edu/~wheeler/scientific_paper_guide.pdf
#نوشتن_مقاله #نکته_آموزشی #فایل
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
What is the difference between "likelihood" and "probability"?
#نکته_آموزشی #cross_validated
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
#نکته_آموزشی #cross_validated
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Cross Validated
What is the difference between "likelihood" and "probability"?
The wikipedia page claims that likelihood and probability are distinct concepts.
In non-technical parlance, "likelihood" is usually a synonym for "probability," but in statistical usage there is a
In non-technical parlance, "likelihood" is usually a synonym for "probability," but in statistical usage there is a
متن پایان نامه آنالیز و بهینه سازی شبکه های کانولوشنی:
Analysis and Optimization of Convolutional Neural Network Architectures
در این پایان نامه مباحث مهمی پیرامون توپولوژی شبکه های کانولوشنی روشهای بهینه سازی آنها بحث می شود.
#پایان_نامه #شبکه_عصبی #یادگیری_عمیق #توپولوژی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Analysis and Optimization of Convolutional Neural Network Architectures
در این پایان نامه مباحث مهمی پیرامون توپولوژی شبکه های کانولوشنی روشهای بهینه سازی آنها بحث می شود.
#پایان_نامه #شبکه_عصبی #یادگیری_عمیق #توپولوژی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Telegram
Bias Variance
🌴 سایت:
https://biasvariance.net
🌺 کانال تلگرام:
@biasvariance_ir
🌳 پشتیبانی:
@biasvariance
🌷 اینستاگرام:
https://www.instagram.com/bvariance/
https://biasvariance.net
🌺 کانال تلگرام:
@biasvariance_ir
🌳 پشتیبانی:
@biasvariance
🌷 اینستاگرام:
https://www.instagram.com/bvariance/
بدلیل اینکه شبکه های عصبی عمیق تابع هزینه محدبی ندارند، یکی از مشکلاتی که پیش می آید این است که ممکن است یادگیری مناسبی نداشته باشند. در این صورت چه کار باید کرد؟
What should I do when my neural network doesn't learn?
#یادگیری_عمیق #تابع_هزینه #عدم_یادگیری_شبکه_عصبی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
What should I do when my neural network doesn't learn?
#یادگیری_عمیق #تابع_هزینه #عدم_یادگیری_شبکه_عصبی
🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Cross Validated
What should I do when my neural network doesn't learn?
I'm training a neural network but the training loss doesn't decrease. How can I fix this?
I'm not asking about overfitting or regularization. I'm asking about how to solve the problem where my net...
I'm not asking about overfitting or regularization. I'm asking about how to solve the problem where my net...