Telegram Web
دوره پروژه محور افزایش کیفیت کد پایتون

https://www.biasvariance.ir/courses/increasing-python-code-quality/

زبان پایتون در چند سال اخیر به زبانی پرطرفدار تبدیل شده است. یکی از دلایل اصلی این موضوع این است که این زبان تعداد بسیار زیادی کتابخانه متن باز دارد. از سویی دیگر، فریم ورک های متن باز بیشماری که این زبان در زمینه های متفاوت دارد سبب شده که پایتون به تنهایی اکثر نیازهای برنامه نویسان را مرتفع کند. یکی از مواردی که لازم است برنامه نویسان رعایت کنند تا از کارشان استقبال شود، کد زنی استاندارد در این زبان است. اگر کدزنی پایتون به شکل استاندارد نباشد، سبب می شود خوانش کد سخت شود و کاربران به سراغ کدهای متن باز دیگر بروند؛ برای مثال، حتما دیده اید که کتابخانه هایی مثل pytorch یا tensorflow هم در سایتشان، هم در documentation دارای مطالب یکسانی هستند که به شکل های متفاوت نمایش داده می شوند. در این دوره یکی از مباحثی که بحث می شود مربوط به این موضوع است.

#معرفی_دوره #python #اطلاع_رسانی #pytorch #دوره_آموزشی #tensorflow

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
دوره پروژه محور کتابخانه اسفینکس در پایتون

https://www.biasvariance.ir/courses/sphinx-library-in-python/

اسفینکس یک کتابخانه پر استفاده در پایتون است که این اجازه را به برنامه نویسان می دهد که برای کدشان documentation مناسب در فرمت های متفاوت داشته باشند.


#معرفی_دوره #pytorch #اطلاع_رسانی #python #دوره_آموزشی #tensorflow

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
دوره پروژه محور کتابخانه لاگین درپایتون

https://www.biasvariance.ir/courses/logging-library-in-python/

به دلایل مختلفی لازم است که در کد پایتون لاگ گیری داشته باشیم ولی کتابخانه لاگ نیاز به پیکربندی دارد. اگر تعداد ماژولها زیاد شود پیکردبندی لاگ سیستم کمی چالش برانگیز می شود؛ به همین خاطر، خیلی از افراد ترجیح می دهند که از تابع پرینت استفاده کنند تا نیازهایشان سریعتر مرتفع شود ولی این کار برای پروژه های با تعداد خط بالا کار درستی نیست و می تواند فرآیند اصلاح، نگه داری و توسعه کد را سخت کند. از سویی دیگر، لازم است که برنامه نویس برای خطاهایی که سمت کاربران رخ می دهد، امنیت سایتی که به زبان پایتون نوشته یا پیدا کردن خطاهای احتمالی ناخواسته و حل آنها حتما از لاگ سیستم استفاده کند.

#دوره_آموزشی #اطلاع_رسانی #پایتون #لاگ #معرفی_دوره #python

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
معرفی مقاله:

Deep learning for early warning signals oftipping points

Many natural systems exhibit tipping points where slowly changing environmental conditions spark a sudden shift to a new
and sometimes very different state. As the tipping point is
approached, the dynamics of complex and varied systems simplify down to a limited number of possible “normal forms” that
determine qualitative aspects of the new state that lies beyond
the tipping point, such as whether it will oscillate or be stable. In several of those forms, indicators like increasing lag-1
autocorrelation and variance provide generic early warning signals (EWS) of the tipping point by detecting how dynamics slow
down near the transition. But they do not predict the nature
of the new state. Here we develop a deep learning algorithm
that provides EWS in systems it was not explicitly trained on, by
exploiting information about normal forms and scaling behavior of dynamics near tipping points that are common to many
dynamical systems. The algorithm provides EWS in 268 empirical
and model time series from ecology, thermoacoustics, climatology,
and epidemiology with much greater sensitivity and specificity ...


#معرفی_مقاله #یادگیری_عمیق

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یکی از چالشها در یادگیری عمیق تقویتی exploration است. فضای مساله ها معمولا خیلی بزرگ است. معمولا قسمت بزرگی از این فضا جواب های خوبی ندارد. اینکه راهکار مناسبی داشته باشیم که کجای فضا را در چه زمانی بررسی کنیم نیاز به بینش مناسب دارد. در ادامه مقاله مروری که اخیرا ارایه شده قرار می گیرد.

Exploration in Deep Reinforcement Learning: AComprehensive Survey


Reinforcement Learning (DRL) and Deep
Multi-agent Reinforcement Learning (MARL) have achieved
significant success across a wide range of domains, including
game AI, autonomous vehicles, robotics, finance, healthcare,
transportation and so on. However, DRL and deep MARL
agents are widely known to be sample-inefficient and millions of
interactions are usually needed even for relatively simple game
settings, thus preventing the wide application and deployment in
real-industry scenarios. One bottleneck challenge behind is the
well-known exploration problem, i.e., how to efficiently explore
the unknown environments and collect informative experiences
that could benefit the policy learning most towards optimal ones.
This problem becomes more severe in complex environments
with sparse rewards, noisy distractions, long horizons and nonstationary co-learners.



#یادگیری_عمیق #یادگیری_عمیق_تقویتی #معرفی_مقاله

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یکی از کاربردهای رو به افزایش یادگیری عمیق تقویتی استفاده در سیستم های self driving car است. در مقاله ای که چند روز پیش ارایه شد یک راه حل end-to-end ارایه شده است که در مورد آن می خوانیم:

— Autonomous driving in urban crowds at unregulated intersections is challenging, where dynamic occlusions
and uncertain behaviors of other vehicles should be carefully
considered. Traditional methods are heuristic and based on
hand-engineered rules and parameters, but scale poorly in new
situations. Therefore, they require high labor cost to design
and maintain rules in all foreseeable scenarios. Recently, deep
reinforcement learning (DRL) has shown promising results
in urban driving scenarios. However, DRL is known to be
sample inefficient, and most previous works assume perfect
observations such as ground-truth locations and motions of
vehicles without considering noises and occlusions, which might
be a too strong assumption for policy deployment. In this work,
we use DRL to train lidar-based end-to-end driving policies that
naturally consider imperfect partial observations. We further
use unsupervised contrastive representation learning as an
auxiliary task to improve the sample efficiency. The comparative
evaluation results reveal that our method achieves higher success rates than the state-of-the-art (SOTA) lidar-based end-toend driving network, better trades off safety and efficiency than
the carefully-tuned rule-based method, and generalizes better
to new scenarios than the baselines. Demo videos are available
at https://caipeide.github.io/carl-lead/.


لینک مقاله



#معرفی_مقاله #یادگیری_عمیق #یادگیری_عمیق_تقویتی #self_driving_car

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یکی از نیازهای دانشجویان پس از مطالعه مقالات، پیدا کردن پیاده سازی آنهاست. extension زیر می تواند تا حدود زیادی کمکتان کند.

https://chrome.google.com/webstore/detail/scholar-with-code/nlnjigejpgngahmoainkakaafabijeki



#معرفی_منبع_آموزشی

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
یکی از مقالات مهم در زمینه روشهای value-based در یادگیری عمیق تقویتی مقاله Dueling Network Architectures for Deep Reinforcement Learning است. این روش عملکرد بسیار بهتری از DQN دارد.

In recent years there have been many successes of using deep representations in reinforcement learning. Still, many of these applications use conventional architectures, such as convolutional networks, LSTMs, or auto-encoders. In this paper, we present a new neural network architecture for model-free reinforcement learning. Our dueling network represents two separate estimators: one for the state value function and one for the state-dependent action advantage function. The main benefit of this factoring is to generalize learning across actions without imposing any change to the underlying reinforcement learning algorithm. Our results show that this architecture leads to better policy evaluation in the presence of many similar-valued actions. Moreover, the dueling architecture enables our RL agent to outperform the state-of-the-art on the Atari 2600 domain.

لینک مقاله: https://arxiv.org/abs/1511.06581
لینک پیاده سازی های متفاوت: https://paperswithcode.com/paper/dueling-network-architectures-for-deep


#معرفی_مقاله #یادگیری_عمیق #یادگیری_تقویتی #value_based

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
اینترنتِ دانشجویان

https://ictgifts.ir/UniversityStudents


#خبر

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
اخیرا چپتری برای یادگیری عمیق چاپ شده که می خوانیم:

Traditional machine learning has its limitations. For one thing, the nature of the class we want to learn can be so complicated that simple techniques fail. For another, the excessive detail of available attributes may obscure vital information about the data. To cope with these complications, more advanced techniques are needed. This is why deep learning was born.

لینک کتاب در Springer



#معرفی_منبع_آموزشی #یادگیری_عمیق

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
مقاله ای پیرامون Activity Recognition که چند روز پیش ارایه شد. این زمینه با یادگیری عمیق متحول شده است و زمینه مناسبی برای کارهای تحقیقاتی است.

Location-based Human Activity Recognition Using Long-term Deep Learning Invariant Mapping

In the area of human activity recognition based on mobile phone data, the Sussex-Huawei locomotion dataset[6][19] has been gaining popularity over recent years. This dataset contains sensors’ readings from several mobile phones that have been collected while their users participated in eight types of their everyday offline activities: staying still (while sitting or standing), walking, running, riding a bike, staying in a car, on a bus, the train or taking an underground. The main goal of this project was to recognize those activities based on human location and wireless signal receivers data (such as Wi-Fi, GPS, LTE, CDMA receivers). This paper proposes using an automatic feature extraction deep learning algorithm to extract long-term patterns and features that maximize differentiation between activities. We first determined essential data characteristics (mean, standard deviation, min and max values, difference, distance, velocity, etc.) and trained an ensemble of Siamese LSTM feature extractors on training data during experiments. Then we selected the best features using validation data and trained the classifier on training and validation datasets. According to the model evaluation results, as the LPEM team, we achieved 79.89% of the F1 score using 4-fold shuffling.


#معرفی_مقاله #یادگیری_عمیق #activity_recognition

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
Self-Normalizing Neural Networks
Deep Learning has revolutionized vision via convolutional neural networks (CNNs) and natural language processing via recurrent neural networks (RNNs). However, success stories of Deep Learning with standard feed-forward neural networks (FNNs) are rare. FNNs that perform well are typically shallow and, therefore cannot exploit many levels of abstract representations. We introduce self-normalizing neural networks (SNNs) to enable high-level abstract representations. While batch normalization requires explicit normalization, neuron activations of SNNs automatically converge towards zero mean and unit variance. The activation function of SNNs are “scaled exponential linear units” (SELUs), which induce self-normalizing properties. Using the Banach fixed-point theorem, we prove that activations close to zero mean and unit variance that are propagated through many network layers will converge towards zero mean and unit variance — even under the presence of noise and perturbations. This convergence property of SNNs allows to (1) train deep networks with many layers, (2) employ strong regularization schemes, and (3) to make learning highly robust. Furthermore, for activations not close to unit variance, we prove an upper and lower bound on the variance, thus, vanishing and exploding gradients are impossible. We compared SNNs on (a) 121 tasks from the UCI machine learning repository, on (b) drug discovery benchmarks, and on (c) astronomy tasks with standard FNNs, and other machine learning methods such as random ...


#معرفی_مقاله #شبکه_کانولوشنی #بینایی_ماشین

🌴 سایت | 🌺 کانال | 🌳 پشتیبانی
2025/07/04 19:09:58
Back to Top
HTML Embed Code: