به تازگی Martin Riedmiller مقاله بسیار مهمی را به چاپ رسانده که نشان می دهد چگونه از روش AC می توان برای مدلهای بزرگ استفاده کرد. خواندن مقاله را توصیه می کنیم. قبلا اشاره کرده بودیم که استفاده از مدلهای زبانی در یادگیری تقویتی در حال گسترش است. از بابت پرپارامتر بودن نگران نباشید. می توان با فریز کردن تا حدود زیادی دانش این شبکه ها را انتقال داد. از سویی به تازگی مشاهده کرده ایم که ظاهرا کولب وی رم پانزده گیگی به صورت رایگان در اختیار کاربران قرار می دهد که خبر خوبی است.
Offline Actor-Critic Reinforcement Learning Scales to Large Models
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
Offline Actor-Critic Reinforcement Learning Scales to Large Models
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
استفاده از یادگیری عمیق در پروژه های تجاری - بخش ۲۷
یکی از مواردی که در آموزش مدلهای یادگیری بسیار با اهمیت است، استفاده از کامپیوترهای SIMD به خصوص GPUها برای شبکه های عصبی است. معمولا در شرکتها خیلی به مدل کارت گرافیک و بروز بودنش اهمیت داده میشود. با این حال، معمولا نکته ای که در نظر گرفته نمی شود، سایز VRAM کارت گرافیک است. احتمالا با این مشکل زیاد برخورد کرده باشید که شبکه های تبدیل کننده بعضا تنسورهایی با رنک هفت ایجاد می کنند و مدلهایشان به دلیل محاسبات میانی در حافظه کارت گرافیک جا نمی شوند. توصیه ای که داریم اگر بودجه تهیه یک سیستم برای آموزش شبکه عصبی دارید، خیلی به حافظه کارت گرافیک توجه کنید. به زبان ساده، ۴۰۹۰ ای که در لپتاپها معمولا استفاده می شود ۱۲ گیگ حافظه دارد. ۱۲ گیگ حافظه بسیار محدودی است و صادقانه بخواهیم بگوییم، مدل های نسلهای قبل با VRAM با اندازه ۱۶ گیگ را ترجیح می دهیم. زیرا مدل باید اول در حافظه جا شود تا بعد آموزش ببیند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
یکی از مواردی که در آموزش مدلهای یادگیری بسیار با اهمیت است، استفاده از کامپیوترهای SIMD به خصوص GPUها برای شبکه های عصبی است. معمولا در شرکتها خیلی به مدل کارت گرافیک و بروز بودنش اهمیت داده میشود. با این حال، معمولا نکته ای که در نظر گرفته نمی شود، سایز VRAM کارت گرافیک است. احتمالا با این مشکل زیاد برخورد کرده باشید که شبکه های تبدیل کننده بعضا تنسورهایی با رنک هفت ایجاد می کنند و مدلهایشان به دلیل محاسبات میانی در حافظه کارت گرافیک جا نمی شوند. توصیه ای که داریم اگر بودجه تهیه یک سیستم برای آموزش شبکه عصبی دارید، خیلی به حافظه کارت گرافیک توجه کنید. به زبان ساده، ۴۰۹۰ ای که در لپتاپها معمولا استفاده می شود ۱۲ گیگ حافظه دارد. ۱۲ گیگ حافظه بسیار محدودی است و صادقانه بخواهیم بگوییم، مدل های نسلهای قبل با VRAM با اندازه ۱۶ گیگ را ترجیح می دهیم. زیرا مدل باید اول در حافظه جا شود تا بعد آموزش ببیند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
پیش از این به کاربردهای فراوان یادگیری تقویتی چند عامله اشاره کرده بودیم. اخیرا مقاله جالبی چاپ شده که کاربرد این عاملها برای IoT را نشان میدهد. معمولا چاپ مقالات در زمینه هایی که ارتباط چند شاخه مختلف و پرکاربرد را نشان می دهند کمی ساده تر است. این زمینه را برای دانشجویان ارشد پیشنهاد می دهیم. مقاله برای همین امسال است و مطالعه آن برای علاقه مندان این حوزه توصیه می شود.
A Multi-Agents Deep Reinforcement Learning Autonomous Security Management Approach for Internet of Things
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
A Multi-Agents Deep Reinforcement Learning Autonomous Security Management Approach for Internet of Things
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
بسیار خوب! یکی از گونههای یادگیری که تقریبا به آن چندان نپرداختهایم، مدلهای دیفیوژن هستند. مقالهی مروری بسیار مهمی را در این زمینه با نام Diffusion Models in Vision: A Survey معرفی میکنیم که بسیار کاربردی است و مطالب این حوزه را به خوبی پوشش داده است. اگر به مدلهای مولد علاقهمند هستید، این زمینه را برای کار در ارشد و دکتری بسیار توصیه میکنیم.
Denoising diffusion models represent a recent emerging topic in computer vision, demonstrating remarkable results in the area of generative modeling. A diffusion model is a deep generative model that is based on two stages, a forward diffusion stage and a reverse diffusion stage. In the forward diffusion stage, the input data is gradually perturbed over several steps by adding Gaussian noise. In the reverse stage, a model is tasked at recovering the original input data by learning to gradually reverse the diffusion process, step by step. Diffusion models are widely appreciated for the quality and diversity of the generated samples, despite their known computational burdens, i.e. low speeds due to the high number of steps involved during sampling. In this survey, we provide a comprehensive review of articles on denoising diffusion models applied in vision, comprising both theoretical and practical contributions in the field. First, we identify and present three generic diffusion modeling frameworks, which are based on denoising diffusion probabilistic models, noise conditioned score networks, and stochastic differential equations. We further discuss the relations between diffusion models and other deep generative models, including variational auto-encoders, generative adversarial networks, energy-based models, autoregressive models and normalizing flows. Then, we introduce a multi-perspective categorization of diffusion models applied in computer vision. Finally, we illustrate the current limitations of diffusion models and envision some interesting directions for future research.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Denoising diffusion models represent a recent emerging topic in computer vision, demonstrating remarkable results in the area of generative modeling. A diffusion model is a deep generative model that is based on two stages, a forward diffusion stage and a reverse diffusion stage. In the forward diffusion stage, the input data is gradually perturbed over several steps by adding Gaussian noise. In the reverse stage, a model is tasked at recovering the original input data by learning to gradually reverse the diffusion process, step by step. Diffusion models are widely appreciated for the quality and diversity of the generated samples, despite their known computational burdens, i.e. low speeds due to the high number of steps involved during sampling. In this survey, we provide a comprehensive review of articles on denoising diffusion models applied in vision, comprising both theoretical and practical contributions in the field. First, we identify and present three generic diffusion modeling frameworks, which are based on denoising diffusion probabilistic models, noise conditioned score networks, and stochastic differential equations. We further discuss the relations between diffusion models and other deep generative models, including variational auto-encoders, generative adversarial networks, energy-based models, autoregressive models and normalizing flows. Then, we introduce a multi-perspective categorization of diffusion models applied in computer vision. Finally, we illustrate the current limitations of diffusion models and envision some interesting directions for future research.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
معمولا یکی از ضعفهای بسیاری از دانشجویان در مواجه با مفاهیم یادگیری، عدم توانایی در تصور محاسبات در جبر خطی است. یکی از وبسایتهای جالبی که در این حوزه وجود دارد و درک عمیقی از محاسبات جبری ارایه میدهد، وبسایت MathIsFun است که بخشهای متنوع فراوانی دارد. برای مثال در این لینک نویسندگان جدای از محاسبات، درک بصری روشنی از انجام ضربداخلی ارایه کردهاند. اما مطالب این وبسایت به اینجا ختم نمیشود. میتوانید مطالب متنوعی نظیر نظریهی بازیها و مطالبی مشابه را نیز به روشهای جالب این وبسایت فرابگیرید.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_وبسایت #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_وبسایت #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Mathsisfun
Dot Product
A vector has magnitude (how long it is) and direction ... Here are two vectors
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
سلام، بعد از مدتی دوری و رخدادن اتفاقات مختلف، مجدد مطالبی را ذکر میکنیم و به روال عادی بازمیگردیم و برای مدتی طولانی در مورد پالتیک حرف نمیزنیم. اول از همه به اللکششن یو اس اشاره میکنیم که چندماه دیگر برگزار میشود و پس از دراپشدن مشکوک چاپر پریویس پرزیدنت آیرون، بالاخره ما با اونها کووردینیت شدیم. اول از همه چندتا پیشبینی میکنیم با توجه به شرایط فعلی اینجا و اونجا. اگر به خاطر داشتهباشید، چهار سال پیش شانس صنننندددرز در کندیدیتی بسیار بیشتر از فایدن بود ولی بدلیل یکی از اظهاراتش که اشاره کرده بود باید جنیساید در پالاستین به پایان برسد و مستقلشوند، شانسش را کاملا از دستداد. در حال حاضر همانطور که شاید بدانید شانس توروپ خیلی زیاد است و استیتهای سوینگگ ووتشان به سمت قرمزها برگشته و تقابل مجدد چپیهای آیرون با راستیهای یو اس مجدد شکل خواهد گرفت. هرچند بعید است ولی لازم است اشاره کنیم که حریص (!) هم فرد بهشدت هاردلاینری نظیر لیدی چیلینتون است. بدلیل نشنالیتیی همسرش هم وابسته به ز ااا! یونیس ها است. در این مدت اتفاقات مختلفی افتاد که بسیار سخت است به همه پرداخته شود ولی به مواردی اشاره میکنیم. در جایی که بچههای یعقوپ برای خود برداشتهاند، اوضاع ناآرام است و احتمالا بدانید که آن ناحیه برای جو ییش پیپل، کریسچنها و زالونیستها بسیار مقدس است. با توجه به اتفاقاتی که رخداده دو احتمال وجود دارد. شعاع وار افزایش پیداکند یا اینکه بورد فعلی جاهو کلهپا شود و مثل سالها قبل که شششاارون کیلر جنگی شناخته شد، تمامی تقصیرها روی جاهو حواله شوند و ملت همیشه مظلوم زالونیست مظلومتر شناخته شوند. چند هشدار میدهیم زیرا از نفوذشاین در آیرون خبر داریم. اعتقادی زالونیستها دارند و آن این است که همه جز خودشان حیوان هستند و به همین دلیل بهراحتی کودک کیل میکنند. در همین یو اسش هم که با چندتاشون صحبت که کردهبودیم که این بایاس مغزی بهشدت ریشیست است با کمال تعجب با جواب یکسان گاد اینطور خواسته روبهرو شدیم. برامون جالبه که اگر عحد اطیغغه را خوانده باشید جایی هست که همون گاد با جی کوب پرافیت کشتی میگیره و میبازه. به هر حال اشاره میکنیم. دوسال پیش که همه رو توی آیرون توی جون هم انداختند را به خاطر بیاورید. ایمیجی که از مرحوم امم ین یی منتشر شد را ریپرتر نیوزپیپر شرقی در اآیرون منتشر کرد. باس این نیوزپیپر سابقا فامیلیش کهن بوده بعد عوض کرده. ادامه نمیدیم خودتون برید ببینید کیه. این که دیده میشه در اونجا جناب بیوتیفول کلام از پرچم مثلثهای متقاطع میپره بدانید که منفعتی داره و کورکورانه قبول نکنید. اگر اونجا دستار به سرها کچلتون کردن با مواردی اینجا هم دقیقا با مظلومیت و گوگولی مگولی بودن قوم جیکوب کچل کردن همه رو. هر چی هم جنساید شه به ورلد وار قبلی اشاره میشه. پیش بینی میکنیم ماسک گنبد سبزه که اولین سمت نما ز بود رو خودشون بزنن و به جاش حیییکل سولومون رو درست کنن و توی اون اگر فرصت کنند گیت معروفشون رو راه بندازن که محل ورودی ... است. مورد بعدی که اشاره میکنیم اینکه دث پرزیدنت به شدت مشکوک بود. جدای اینکه اون فرد قرار بود لیدر فیوچر آیرون باشه، تاریخی که اون اتفاق افتاد توی سری انیمیشنی کد شده بود و جناب ماسک هم تووییت مشکوکی زده بود قبلتر. کسانی که قبلهشون جناب ماسک هستش لازمه یک نکتهای رو بدونن که بی خود نمیآ د در مورد آیرون افاضات کنه. حتما این مورد را بررسی کنید. صاحب تسلا چند سال پیش سرمایهگذاری کرد که یکی از کانتریهای اومریکای چنوبی سقوط کنه چون یکی از بزرگترین ذخایر معدنی رو داشت که ماسک در تسلا به آن نیاز داشت. بعد از اینکه کلهپا کردن، جناب توییت ززدن با این مضمون که هرکاری بخوام باهاتون میکنم. حالا کانتری آیرون که بیشترین اویل و گز یونیورس رو داره، محل اتصال سه کانتیننت به هم هستش چون بالا پایینش دریاست و وسعت زیادی داره و از همه مهمتر زالونیستتها مثل سگ میترسن ازش چون توی پیشگویییهای بوکشون اومده که با ما دیستروی میشن مثل یه خار توی چشمشون هستش. از اون جایی که هیچکی تاریخ نمیخونه تو آیرون برید ببینید و بگرددید چطوری آیرن کوچیک شدش. چرا مونگولها یا اسکاندر به آیرون اتک زدن. از اون نهنگ میخواستن کاری کنن که سوسک هم نمونه چه برسه به گربه. پروفسور ناصر سیبیل که یه کله کل افگانستان را داد رفت کمی جغرافیا نمیدانست که ببینید اونجا با چاینا بوردر مشترک دارد. همین حالا میگوییم. هدف کلا پول هستش. قرار است پاور از قرروب جغرافیا به شرووغ جوقراقیا برود و چاینا به آیرون برای راه زمینی نیاز دارد. به همین خاطر دو سال پیش نه تنها آیرون بلکه کل مسیر رود افریشم از داخل به هم پاشیده بودند. وسعت آیرون دلیل اصلی این بود که چرج جوش به آیرون اتک نزد بیست سال قبل. نمیدانیم. شاید بعدها بیشتر نوشتیم.
ــــــــــ
#نیوز
ــــــــــ
#نیوز
Call for Papers
Transformer-based models have emerged as a cornerstone of modern artificial intelligence (AI), reshaping the landscape of machine learning and driving unprecedented progress in a myriad of tasks. Originating from the domain of natural language processing, transformers have transcended their initial applications to become ubiquitous across diverse fields including anomaly detection, computer vision, speech recognition, recommender systems, question answering, robotics, healthcare, education, and more. The impact of transformer models extends far beyond their technical intricacies. For instance, advanced transformers have been successfully applied to multimodal learning tasks, where they can seamlessly integrate information from different modalities such as text, images, audio, and video. This ability opens up new avenues for research in areas like visual question answering, image captioning, and video understanding.
https://dl.acm.org/pb-assets/static_journal_pages/tist/pdf/ACM-TIST-CFP-SI-Transformers.pdf
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Transformer-based models have emerged as a cornerstone of modern artificial intelligence (AI), reshaping the landscape of machine learning and driving unprecedented progress in a myriad of tasks. Originating from the domain of natural language processing, transformers have transcended their initial applications to become ubiquitous across diverse fields including anomaly detection, computer vision, speech recognition, recommender systems, question answering, robotics, healthcare, education, and more. The impact of transformer models extends far beyond their technical intricacies. For instance, advanced transformers have been successfully applied to multimodal learning tasks, where they can seamlessly integrate information from different modalities such as text, images, audio, and video. This ability opens up new avenues for research in areas like visual question answering, image captioning, and video understanding.
https://dl.acm.org/pb-assets/static_journal_pages/tist/pdf/ACM-TIST-CFP-SI-Transformers.pdf
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
مقالهی KAN اخیرا بسیار سروصدا کرده و خواندن آن را به شدت توصیه میکنیم. این زمینه را برای موضوع دکتری توصیه میکنیم.
Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes (“neurons”), KANs have learnable activation functions on edges (“weights”). KANs have no linear weights at all – every weight parameter is replaced by a univariate function parametrized as a spline. We show that this seemingly simple change makes KANs outperform MLPs in terms of accuracy and interpretability. For accuracy, much smaller KANs can achieve comparable or better accuracy than much larger MLPs in data fitting and PDE solving. Theoretically and empirically, KANs possess faster neural scaling laws than MLPs. For interpretability, KANs can be intuitively visualized and can easily interact with human users. Through two examples in mathematics and physics, KANs are shown to be useful “collaborators” helping scientists (re)discover mathematical and physical laws. In summary, KANs are promising alternatives for MLPs, opening opportunities for further improving today’s deep learning models which rely heavily on MLPs.
https://arxiv.org/html/2404.19756v1
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes (“neurons”), KANs have learnable activation functions on edges (“weights”). KANs have no linear weights at all – every weight parameter is replaced by a univariate function parametrized as a spline. We show that this seemingly simple change makes KANs outperform MLPs in terms of accuracy and interpretability. For accuracy, much smaller KANs can achieve comparable or better accuracy than much larger MLPs in data fitting and PDE solving. Theoretically and empirically, KANs possess faster neural scaling laws than MLPs. For interpretability, KANs can be intuitively visualized and can easily interact with human users. Through two examples in mathematics and physics, KANs are shown to be useful “collaborators” helping scientists (re)discover mathematical and physical laws. In summary, KANs are promising alternatives for MLPs, opening opportunities for further improving today’s deep learning models which rely heavily on MLPs.
https://arxiv.org/html/2404.19756v1
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
احتمالا دیده باشید که در این چند سال، مدلهای زبانی بسیار در کدزنی کاربرد پیدا کردهاند. یکی از extensionهای بسیار کاربردی برای vscode، اکستنشن
https://marketplace.visualstudio.com/items?itemName=sourcegraph.cody-ai
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_ابزار
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
cody
است که علاوه بر چت، قابلیت پیشنهاد کد و auto-complete با تب را فراهم میکند. استفاده از این extension زمان کدزنی را به طرز چشمگیری کاهش میدهد. https://marketplace.visualstudio.com/items?itemName=sourcegraph.cody-ai
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_ابزار
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Visualstudio
Cody: AI Code Assistant - Visual Studio Marketplace
Extension for Visual Studio Code - Sourcegraph’s AI code assistant goes beyond individual dev productivity, helping enterprises achieve consistency and quality at scale with AI. & codebase context to help you write code faster. Cody brings you autocomplete…
راهنمایی در مورد هستههای CUDA و حافظهی ویدیویی (VRAM)
هستههای کودا، واحدهای پردازشی موازی در کارتهای گرافیک انویدیا هستند که برای محاسبات عمومی طراحی شدهاند. این هستهها قادرند چندین وظیفه را به طور همزمان انجام دهند و برای پردازش موازی بهینه شدهاند.
حافظه ویدیویی یا VRAM، حافظه اختصاصی پرسرعتی است که توسط کارت گرافیک استفاده میشود. این حافظه دادههای مربوط به گرافیک را به طور موقت ذخیره میکند و ظرفیت آن بر توانایی کارت گرافیک در پردازش تأثیر میگذارد.
ارتباط بین هستههای CUDA و VRAM
هستههای کودا و حافظه ویدیویی هر دو برای عملکرد کارت گرافیک مهم هستند، اما ارتباط مستقیمی از نظر اندازه یا تعداد ندارند. هستههای کودا دادهها را پردازش میکنند، در حالی که حافظه ویدیویی آنها را ذخیره میکند. عملکرد بهینه کارت گرافیک به تعادل مناسب بین این دو عنصر بستگی دارد و این تعادل بر اساس نوع کاربرد متفاوت است. در اینجا نحوه تعامل آنها را شرح میدهیم:
۱. عملکرد مکمل: هستههای CUDA دادهها را پردازش میکنند، در حالی که VRAM آنها را ذخیره میکند. تعداد بیشتر هستههای CUDA میتواند دادهها را سریعتر پردازش کند، اما آنها نیاز به VRAM کافی برای نگهداری دادهها دارند.
۲. تعادل عملکرد: کارت گرافیکی با تعداد زیادی هسته CUDA اما VRAM محدود ممکن است در وظایفی که نیاز به دادههای زیادی دارند دچار مشکل شود، در حالی که کارت گرافیکی با VRAM زیاد اما هستههای CUDA کم ممکن است دادههای بیشتری را ذخیره کند اما آنها را کندتر پردازش کند.
۳. اهمیت وابسته به وظیفه: برای برخی وظایف، مانند کار با مدلهای بزرگ یادگیری عمیق، داشتن VRAM بیشتر ممکن است مهمتر از داشتن هستههای CUDA بیشتر باشد.
۴. مقیاسپذیری: به طور کلی، کارتهای گرافیک پیشرفتهتر تمایل دارند که هم هستههای CUDA بیشتر و هم VRAM بیشتری داشته باشند، اما نسبت بین آنها ثابت نیست و بین مدلها و نسلهای مختلف کارت گرافیک متفاوت است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
هستههای کودا، واحدهای پردازشی موازی در کارتهای گرافیک انویدیا هستند که برای محاسبات عمومی طراحی شدهاند. این هستهها قادرند چندین وظیفه را به طور همزمان انجام دهند و برای پردازش موازی بهینه شدهاند.
حافظه ویدیویی یا VRAM، حافظه اختصاصی پرسرعتی است که توسط کارت گرافیک استفاده میشود. این حافظه دادههای مربوط به گرافیک را به طور موقت ذخیره میکند و ظرفیت آن بر توانایی کارت گرافیک در پردازش تأثیر میگذارد.
ارتباط بین هستههای CUDA و VRAM
هستههای کودا و حافظه ویدیویی هر دو برای عملکرد کارت گرافیک مهم هستند، اما ارتباط مستقیمی از نظر اندازه یا تعداد ندارند. هستههای کودا دادهها را پردازش میکنند، در حالی که حافظه ویدیویی آنها را ذخیره میکند. عملکرد بهینه کارت گرافیک به تعادل مناسب بین این دو عنصر بستگی دارد و این تعادل بر اساس نوع کاربرد متفاوت است. در اینجا نحوه تعامل آنها را شرح میدهیم:
۱. عملکرد مکمل: هستههای CUDA دادهها را پردازش میکنند، در حالی که VRAM آنها را ذخیره میکند. تعداد بیشتر هستههای CUDA میتواند دادهها را سریعتر پردازش کند، اما آنها نیاز به VRAM کافی برای نگهداری دادهها دارند.
۲. تعادل عملکرد: کارت گرافیکی با تعداد زیادی هسته CUDA اما VRAM محدود ممکن است در وظایفی که نیاز به دادههای زیادی دارند دچار مشکل شود، در حالی که کارت گرافیکی با VRAM زیاد اما هستههای CUDA کم ممکن است دادههای بیشتری را ذخیره کند اما آنها را کندتر پردازش کند.
۳. اهمیت وابسته به وظیفه: برای برخی وظایف، مانند کار با مدلهای بزرگ یادگیری عمیق، داشتن VRAM بیشتر ممکن است مهمتر از داشتن هستههای CUDA بیشتر باشد.
۴. مقیاسپذیری: به طور کلی، کارتهای گرافیک پیشرفتهتر تمایل دارند که هم هستههای CUDA بیشتر و هم VRAM بیشتری داشته باشند، اما نسبت بین آنها ثابت نیست و بین مدلها و نسلهای مختلف کارت گرافیک متفاوت است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
معمولا بدلیل اینکه بچههای هوش بیشتر مقالات و کتابها را بررسی میکنند، ضعف در listening انگلیسی دارند. یکی از قابلیتهای chrome این است که میتوان در آن فایلهای ویدیوی لوکال را با زیرنویس دید. برای این منظور لازم است ویدیوی لوکال را در chrome باز کنید که با درگ اند دراپ یا فایل اکسپلورر کروم قابل انجام است. در ادامه لازم است یکبار تنظیماتی که ذکر میکنیم را انجام دهید تا زیرنویس به صورت لایو تولید شود. به صورت دقیقتر کروم دارای یک ویژگی داخلی به نام زیرنویس زنده است که به طور خودکار برای رسانههای دارای صدا، زیرنویس تولید میکند.
نحوه فعالسازی:
به تنظیمات کروم بروید.
روی بخش Advanced کلیک کنید، سپس به Accessibility بروید.
گزینه Live Caption را فعال کنید. 😉
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
نحوه فعالسازی:
به تنظیمات کروم بروید.
روی بخش Advanced کلیک کنید، سپس به Accessibility بروید.
گزینه Live Caption را فعال کنید. 😉
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از RAG در یادگیری عمیق: ترکیب بازیابی اطلاعات و تولید متن
مدلهای Retrieval-Augmented Generation (RAG) یکی از پیشرفتهای اخیر در حوزه پردازش زبان طبیعی و یادگیری عمیق است که توانایی مدلهای زبانی بزرگ (LLM) را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد به مدلها اجازه میدهد تا پاسخهای دقیقتر، بهروزتر و قابل اعتمادتری تولید کنند.
مفهوم اصلی RAG
مدل RAG از دو بخش اصلی تشکیل شده است. بخش بازیابی (Retrieval) که اطلاعات مرتبط را از منابع خارجی بازیابی میکند و بخش تولید (Generation) که از یک مدل زبانی برای تولید پاسخ با استفاده از اطلاعات بازیابی شده استفاده میکند. این رویکرد به مدلها اجازه میدهد تا به جای اتکا صرف به دانش ذاتی خود، از منابع خارجی برای پاسخگویی استفاده کنند.
مزایای استفاده از RAG
- دقت بالاتر: با استفاده از منابع خارجی، مدل میتواند اطلاعات دقیقتر و بهروزتری ارائه دهد.
- شفافیت: منابع استفاده شده قابل ردیابی هستند، که به افزایش اعتماد کاربران کمک میکند.
- بهروزرسانی آسان: اطلاعات جدید را میتوان بدون نیاز به بازآموزی کامل مدل اضافه کرد.
- کاهش خطای توهم: احتمال تولید اطلاعات نادرست توسط مدل کاهش مییابد.
نحوه عملکرد RAG
- دریافت پرسش: سیستم پرسش کاربر را دریافت میکند.
- بازیابی اطلاعات: با استفاده از تکنیکهای بازیابی اطلاعات، منابع مرتبط از پایگاه داده بازیابی میشوند.
- ترکیب اطلاعات: اطلاعات بازیابی شده با پرسش اصلی ترکیب میشوند.
- تولید پاسخ: مدل زبانی با استفاده از اطلاعات ترکیب شده، پاسخ نهایی را تولید میکند.
چالشهای RAG
- انتخاب منابع مناسب: انتخاب و مدیریت منابع اطلاعاتی مناسب و بهروز چالشبرانگیز است.
- هماهنگی بین بازیابی و تولید: ایجاد تعادل بین دقت بازیابی و کیفیت تولید متن مهم است.
- مدیریت حجم داده: با افزایش حجم دادهها، مدیریت و بازیابی سریع اطلاعات پیچیدهتر میشود.
کاربردهای RAG در یادگیری عمیق
- سیستمهای پرسش و پاسخ: برای ارائه پاسخهای دقیقتر به سوالات کاربران.
- چتباتهای هوشمند: برای بهبود توانایی چتباتها در ارائه اطلاعات دقیق و بهروز.
- خلاصهسازی متون: برای تولید خلاصههای دقیقتر با استناد به منابع اصلی.
- تولید محتوا: برای ایجاد محتوای غنیتر و مستندتر در حوزههای مختلف.
پیادهسازی RAG
برای پیادهسازی RAG، معمولاً از ترکیب چند تکنولوژی استفاده میشود:
- پایگاه داده برداری: برای ذخیره و بازیابی سریع اطلاعات.
- مدلهای Embedding: برای تبدیل متن به بردارهای عددی قابل جستجو.
- الگوریتمهای بازیابی اطلاعات: مانند روش Approximate Nearest Neighbor (ANN) برای یافتن مرتبطترین اطلاعات.
- مدلهای زبانی بزرگ: مانند GPT یا BERT برای تولید متن نهایی.
مثالهایی از کاربرد RAG در دنیای واقعی
- سیستمهای پشتیبانی مشتری: برای ارائه پاسخهای دقیق و سازگار با سیاستهای شرکت.
- موتورهای جستجوی پیشرفته: برای ارائه نتایج جستجوی غنیتر و مرتبطتر.
- سیستمهای آموزشی هوشمند: برای ارائه توضیحات شخصیسازی شده به دانشآموزان.
- ابزارهای تحقیق و توسعه: برای کمک به محققان در یافتن و ترکیب اطلاعات از منابع مختلف.
آینده RAG
با پیشرفت فناوری، انتظار میرود که RAG در آینده توسعه بیشتری یابد که میتوان به موارد زیر اشاره کرد.
- بهبود الگوریتمهای بازیابی: برای یافتن دقیقتر و سریعتر اطلاعات مرتبط.
- ترکیب با سایر تکنیکهای هوش مصنوعی: مانند یادگیری تقویتی برای بهبود عملکرد.
- گسترش به حوزههای چندرسانهای: استفاده از RAG برای تحلیل و تولید محتوای تصویری و صوتی.
- بهبود مقیاسپذیری: برای استفاده در سیستمهای بزرگتر با حجم داده بیشتر.
روش RAG یک گام مهم در توسعه سیستمهای هوش مصنوعی است که توانایی مدلهای زبانی را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد نه تنها دقت و اعتبار پاسخهای تولید شده را افزایش میدهد، بلکه امکان بهروزرسانی مداوم دانش سیستم را نیز فراهم میکند. با ادامه پیشرفتها در این زمینه، انتظار میرود که RAG نقش مهمی در آینده پردازش زبان طبیعی و یادگیری عمیق ایفا کند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #RAG #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
مدلهای Retrieval-Augmented Generation (RAG) یکی از پیشرفتهای اخیر در حوزه پردازش زبان طبیعی و یادگیری عمیق است که توانایی مدلهای زبانی بزرگ (LLM) را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد به مدلها اجازه میدهد تا پاسخهای دقیقتر، بهروزتر و قابل اعتمادتری تولید کنند.
مفهوم اصلی RAG
مدل RAG از دو بخش اصلی تشکیل شده است. بخش بازیابی (Retrieval) که اطلاعات مرتبط را از منابع خارجی بازیابی میکند و بخش تولید (Generation) که از یک مدل زبانی برای تولید پاسخ با استفاده از اطلاعات بازیابی شده استفاده میکند. این رویکرد به مدلها اجازه میدهد تا به جای اتکا صرف به دانش ذاتی خود، از منابع خارجی برای پاسخگویی استفاده کنند.
مزایای استفاده از RAG
- دقت بالاتر: با استفاده از منابع خارجی، مدل میتواند اطلاعات دقیقتر و بهروزتری ارائه دهد.
- شفافیت: منابع استفاده شده قابل ردیابی هستند، که به افزایش اعتماد کاربران کمک میکند.
- بهروزرسانی آسان: اطلاعات جدید را میتوان بدون نیاز به بازآموزی کامل مدل اضافه کرد.
- کاهش خطای توهم: احتمال تولید اطلاعات نادرست توسط مدل کاهش مییابد.
نحوه عملکرد RAG
- دریافت پرسش: سیستم پرسش کاربر را دریافت میکند.
- بازیابی اطلاعات: با استفاده از تکنیکهای بازیابی اطلاعات، منابع مرتبط از پایگاه داده بازیابی میشوند.
- ترکیب اطلاعات: اطلاعات بازیابی شده با پرسش اصلی ترکیب میشوند.
- تولید پاسخ: مدل زبانی با استفاده از اطلاعات ترکیب شده، پاسخ نهایی را تولید میکند.
چالشهای RAG
- انتخاب منابع مناسب: انتخاب و مدیریت منابع اطلاعاتی مناسب و بهروز چالشبرانگیز است.
- هماهنگی بین بازیابی و تولید: ایجاد تعادل بین دقت بازیابی و کیفیت تولید متن مهم است.
- مدیریت حجم داده: با افزایش حجم دادهها، مدیریت و بازیابی سریع اطلاعات پیچیدهتر میشود.
کاربردهای RAG در یادگیری عمیق
- سیستمهای پرسش و پاسخ: برای ارائه پاسخهای دقیقتر به سوالات کاربران.
- چتباتهای هوشمند: برای بهبود توانایی چتباتها در ارائه اطلاعات دقیق و بهروز.
- خلاصهسازی متون: برای تولید خلاصههای دقیقتر با استناد به منابع اصلی.
- تولید محتوا: برای ایجاد محتوای غنیتر و مستندتر در حوزههای مختلف.
پیادهسازی RAG
برای پیادهسازی RAG، معمولاً از ترکیب چند تکنولوژی استفاده میشود:
- پایگاه داده برداری: برای ذخیره و بازیابی سریع اطلاعات.
- مدلهای Embedding: برای تبدیل متن به بردارهای عددی قابل جستجو.
- الگوریتمهای بازیابی اطلاعات: مانند روش Approximate Nearest Neighbor (ANN) برای یافتن مرتبطترین اطلاعات.
- مدلهای زبانی بزرگ: مانند GPT یا BERT برای تولید متن نهایی.
مثالهایی از کاربرد RAG در دنیای واقعی
- سیستمهای پشتیبانی مشتری: برای ارائه پاسخهای دقیق و سازگار با سیاستهای شرکت.
- موتورهای جستجوی پیشرفته: برای ارائه نتایج جستجوی غنیتر و مرتبطتر.
- سیستمهای آموزشی هوشمند: برای ارائه توضیحات شخصیسازی شده به دانشآموزان.
- ابزارهای تحقیق و توسعه: برای کمک به محققان در یافتن و ترکیب اطلاعات از منابع مختلف.
آینده RAG
با پیشرفت فناوری، انتظار میرود که RAG در آینده توسعه بیشتری یابد که میتوان به موارد زیر اشاره کرد.
- بهبود الگوریتمهای بازیابی: برای یافتن دقیقتر و سریعتر اطلاعات مرتبط.
- ترکیب با سایر تکنیکهای هوش مصنوعی: مانند یادگیری تقویتی برای بهبود عملکرد.
- گسترش به حوزههای چندرسانهای: استفاده از RAG برای تحلیل و تولید محتوای تصویری و صوتی.
- بهبود مقیاسپذیری: برای استفاده در سیستمهای بزرگتر با حجم داده بیشتر.
روش RAG یک گام مهم در توسعه سیستمهای هوش مصنوعی است که توانایی مدلهای زبانی را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد نه تنها دقت و اعتبار پاسخهای تولید شده را افزایش میدهد، بلکه امکان بهروزرسانی مداوم دانش سیستم را نیز فراهم میکند. با ادامه پیشرفتها در این زمینه، انتظار میرود که RAG نقش مهمی در آینده پردازش زبان طبیعی و یادگیری عمیق ایفا کند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #RAG #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
شبکههای عصبی عمیق اسپایکینگ
شبکههای عصبی عمیق اسپایکینگ (SNNs) یک پارادایم پیشرفته در معماریهای شبکههای عصبی هستند که از فرآیندهای بیولوژیکی مغز انسان الهام گرفتهاند. بر خلاف شبکههای عصبی عمیق سنتی (DNNs) که از سیگنالهای پیوسته استفاده میکنند، SNNها از رویدادهای گسستهای به نام اسپایکها برای ارتباط استفاده میکنند. در این مقاله به بررسی اصول، مزایا، چالشها و کاربردهای SNNها میپردازیم.
اصول شبکههای عصبی پیکاندار
شبکههای SNN به گونهای طراحی شدهاند که نحوه عملکرد نورونهای بیولوژیکی را تقلید کنند. در سیستمهای بیولوژیکی، نورونها اطلاعات را از طریق پتانسیلهای عمل (اسپایکها یا پیکانها) منتقل میکنند که امواج الکتریکی کوتاهی هستند. این مکانیزم پیکانی اجازه میدهد تا ارتباط و پردازش اطلاعات به طور موثرتری انجام شود. ویژگیهای کلیدی SNNها شامل موارد پایین میشود:
- کدگذاری زمانی: اطلاعات نه تنها با نرخ پیکانها بلکه با زمان دقیق این پیکانها نمایندگی میشود.
- پردازش مبتنی بر رویداد: SNNها تنها زمانی که پیکانها رخ میدهند، اطلاعات را پردازش میکنند که منجر به صرفهجویی در انرژی و زمان پاسخ سریعتر میشود.
- واقعگرایی بیولوژیکی: SNNها ویژگیهایی مانند پلاستیسیته سیناپسی و دینامیکهای زمانی را شامل میشوند که آنها را با شبکههای عصبی بیولوژیکی بیشتر هماهنگ میکند.
مزایای شبکههای عصبی پیکاندار
- کارایی انرژی: SNNها به دلیل الگوهای فیرینگ، firing patterns، پراکنده و طبیعت مبتنیبر رویداد خود، به طور ذاتی از DNNها انرژی کمتری مصرف میکنند. این ویژگی آنها را برای کاربردهایی در سیستمهای موبایل و تعبیهشده که مصرف انرژی مهم است، مناسب میکند.
- پردازش زمان واقعی: طبیعت ناهمزمان ارتباط مبتنی بر پیکان به SNNها اجازه میدهد تا اطلاعات را در زمان واقعی پردازش کنند که برای کاربردهایی مانند رباتیک و وسایل نقلیه خودران ضروری است.
- مقاومت در برابر نویز: طبیعت گسسته پیکانها میتواند SNNها را در برابر نویز در دادههای ورودی مقاومتر کند.
- سازگاری با سختافزارهای نورومورفیک: SNNها میتوانند به طور مؤثری روی چیپهای نورومورفیک که برای تقلید از معماری مغز طراحی شدهاند، پیادهسازی شوند و کارایی آنها را بیشتر کند.
چالشها در آموزش شبکههای عصبی پیکاندار
با وجود مزایا، آموزش SNNها چالشهای قابل توجهی دارد:
- محدودیتهای گرادیان نزولی: روشهای سنتی بهینهسازی که در DNNها استفاده میشود، به دلیل طبیعت غیرقابل تفاضل سیگنالهای پیکانی مستقیماً قابل اعمال بر روی SNNها نیستند. این امر منجر به دشواریهایی در بهینهسازی وزنهای شبکه به طور مؤثر میشود.
- پیچیدگی معماری: طراحی معماری مناسب برای SNNها حیاتی اما چالشبرانگیز است. بسیاری از مدلهای موجود معماریهایی را از DNNها قرض گرفتهاند، اما تطابق مؤثر آنها برای عملکرد بهینه ضروری است.
- عملکرد بر روی مجموعه دادههای بزرگ: اگرچه SNNها در کارایی انرژی تلاشهایی دارند، دقت آنها بر روی مجموعه دادههای بزرگ معمولاً عقبتر از DNNها است که نیازمند تحقیقات و توسعه بیشتر است.
روشهای آموزشی برای شبکههای عصبی پیکاندار
چندین رویکرد برای آموزش SNNها توسعه یافته است:
- آموزش مستقیم: شامل آموزش SNNها با استفاده از روشهایی مانند پلاستیسیته وابسته به زمان پیکان (STDP) یا آموزش محدود قبل از تبدیل از یک مدل DNN است.
- تبدیل از DNNها: DNNهای پیشآموزش دیده میتوانند به مدلهای SNN تبدیل شوند با تطابق وزنها و پارامترهای آنها برای تناسب با چارچوب پیکانی. این روش نشان داده است که عملکرد مناسبی دارد.
- الگوریتمهای الهام گرفته از بیولوژی: الگوریتمهای جدیدی که فرآیندهای یادگیری بیولوژیکی را تقلید میکنند در حال بررسی هستند تا کارایی و اثربخشی آموزش SNNها را افزایش دهند.
کاربردهای شبکههای عصبی پیکاندار
شبکههای SNN دارای دامنه وسیعی از کاربردها در زمینههای مختلف هستند:
- بینایی کامپیوتری: برای وظایفی مانند شناسایی اشیا و درک صحنه، به ویژه با سنسورهای بینایی مبتنی بر رویداد که دادهها را به صورت فرمت پیکانی خروجی میدهند، استفاده میشوند.
- رباتیک: در سیستمهای رباتیکی، SNNها تصمیمگیری زمان واقعی و یادگیری تطبیقی مبتنیبر ورودیهای حسی را تسهیل میکنند.
- محاسبات نورومورفیک: با ظهور سکوهای سختافزاری نورومورفیک، SNNها به طور فزایندهای برای توسعه سیستمهای هوشمند که نیازمند مصرف کم انرژی و سرعت پردازش بالا هستند، مرتبط میشوند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #spiking_neural_networks #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
شبکههای عصبی عمیق اسپایکینگ (SNNs) یک پارادایم پیشرفته در معماریهای شبکههای عصبی هستند که از فرآیندهای بیولوژیکی مغز انسان الهام گرفتهاند. بر خلاف شبکههای عصبی عمیق سنتی (DNNs) که از سیگنالهای پیوسته استفاده میکنند، SNNها از رویدادهای گسستهای به نام اسپایکها برای ارتباط استفاده میکنند. در این مقاله به بررسی اصول، مزایا، چالشها و کاربردهای SNNها میپردازیم.
اصول شبکههای عصبی پیکاندار
شبکههای SNN به گونهای طراحی شدهاند که نحوه عملکرد نورونهای بیولوژیکی را تقلید کنند. در سیستمهای بیولوژیکی، نورونها اطلاعات را از طریق پتانسیلهای عمل (اسپایکها یا پیکانها) منتقل میکنند که امواج الکتریکی کوتاهی هستند. این مکانیزم پیکانی اجازه میدهد تا ارتباط و پردازش اطلاعات به طور موثرتری انجام شود. ویژگیهای کلیدی SNNها شامل موارد پایین میشود:
- کدگذاری زمانی: اطلاعات نه تنها با نرخ پیکانها بلکه با زمان دقیق این پیکانها نمایندگی میشود.
- پردازش مبتنی بر رویداد: SNNها تنها زمانی که پیکانها رخ میدهند، اطلاعات را پردازش میکنند که منجر به صرفهجویی در انرژی و زمان پاسخ سریعتر میشود.
- واقعگرایی بیولوژیکی: SNNها ویژگیهایی مانند پلاستیسیته سیناپسی و دینامیکهای زمانی را شامل میشوند که آنها را با شبکههای عصبی بیولوژیکی بیشتر هماهنگ میکند.
مزایای شبکههای عصبی پیکاندار
- کارایی انرژی: SNNها به دلیل الگوهای فیرینگ، firing patterns، پراکنده و طبیعت مبتنیبر رویداد خود، به طور ذاتی از DNNها انرژی کمتری مصرف میکنند. این ویژگی آنها را برای کاربردهایی در سیستمهای موبایل و تعبیهشده که مصرف انرژی مهم است، مناسب میکند.
- پردازش زمان واقعی: طبیعت ناهمزمان ارتباط مبتنی بر پیکان به SNNها اجازه میدهد تا اطلاعات را در زمان واقعی پردازش کنند که برای کاربردهایی مانند رباتیک و وسایل نقلیه خودران ضروری است.
- مقاومت در برابر نویز: طبیعت گسسته پیکانها میتواند SNNها را در برابر نویز در دادههای ورودی مقاومتر کند.
- سازگاری با سختافزارهای نورومورفیک: SNNها میتوانند به طور مؤثری روی چیپهای نورومورفیک که برای تقلید از معماری مغز طراحی شدهاند، پیادهسازی شوند و کارایی آنها را بیشتر کند.
چالشها در آموزش شبکههای عصبی پیکاندار
با وجود مزایا، آموزش SNNها چالشهای قابل توجهی دارد:
- محدودیتهای گرادیان نزولی: روشهای سنتی بهینهسازی که در DNNها استفاده میشود، به دلیل طبیعت غیرقابل تفاضل سیگنالهای پیکانی مستقیماً قابل اعمال بر روی SNNها نیستند. این امر منجر به دشواریهایی در بهینهسازی وزنهای شبکه به طور مؤثر میشود.
- پیچیدگی معماری: طراحی معماری مناسب برای SNNها حیاتی اما چالشبرانگیز است. بسیاری از مدلهای موجود معماریهایی را از DNNها قرض گرفتهاند، اما تطابق مؤثر آنها برای عملکرد بهینه ضروری است.
- عملکرد بر روی مجموعه دادههای بزرگ: اگرچه SNNها در کارایی انرژی تلاشهایی دارند، دقت آنها بر روی مجموعه دادههای بزرگ معمولاً عقبتر از DNNها است که نیازمند تحقیقات و توسعه بیشتر است.
روشهای آموزشی برای شبکههای عصبی پیکاندار
چندین رویکرد برای آموزش SNNها توسعه یافته است:
- آموزش مستقیم: شامل آموزش SNNها با استفاده از روشهایی مانند پلاستیسیته وابسته به زمان پیکان (STDP) یا آموزش محدود قبل از تبدیل از یک مدل DNN است.
- تبدیل از DNNها: DNNهای پیشآموزش دیده میتوانند به مدلهای SNN تبدیل شوند با تطابق وزنها و پارامترهای آنها برای تناسب با چارچوب پیکانی. این روش نشان داده است که عملکرد مناسبی دارد.
- الگوریتمهای الهام گرفته از بیولوژی: الگوریتمهای جدیدی که فرآیندهای یادگیری بیولوژیکی را تقلید میکنند در حال بررسی هستند تا کارایی و اثربخشی آموزش SNNها را افزایش دهند.
کاربردهای شبکههای عصبی پیکاندار
شبکههای SNN دارای دامنه وسیعی از کاربردها در زمینههای مختلف هستند:
- بینایی کامپیوتری: برای وظایفی مانند شناسایی اشیا و درک صحنه، به ویژه با سنسورهای بینایی مبتنی بر رویداد که دادهها را به صورت فرمت پیکانی خروجی میدهند، استفاده میشوند.
- رباتیک: در سیستمهای رباتیکی، SNNها تصمیمگیری زمان واقعی و یادگیری تطبیقی مبتنیبر ورودیهای حسی را تسهیل میکنند.
- محاسبات نورومورفیک: با ظهور سکوهای سختافزاری نورومورفیک، SNNها به طور فزایندهای برای توسعه سیستمهای هوشمند که نیازمند مصرف کم انرژی و سرعت پردازش بالا هستند، مرتبط میشوند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #spiking_neural_networks #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
🚀 Join Richard Sutton’s Talk at Sharif University of Technology
🎙 Title: The Increasing Role of Sensorimotor Experience in Artificial Intelligence
👨🏫 Speaker: Rich Sutton (Keen Technologies, University of Alberta, OpenMind Research Institute)
📅 Date: Wednesday
🕗 Time: 8 PM Iran Time
💡 Sign Up Here: https://forms.gle/q1M7qErWvydFxR9m6
🎙 Title: The Increasing Role of Sensorimotor Experience in Artificial Intelligence
👨🏫 Speaker: Rich Sutton (Keen Technologies, University of Alberta, OpenMind Research Institute)
📅 Date: Wednesday
🕗 Time: 8 PM Iran Time
💡 Sign Up Here: https://forms.gle/q1M7qErWvydFxR9m6
سلسله سخنرانی های تخصصی مهندسی کامیپوتر
نشست به سوی هوش مصنوعی انسان گونه با تمرکز بر «چگونگی» به جای «چیستی» از سلسله سخنرانی های تخصصی مهندسی کامیپوتر برگزار میشود...
مشروح را در سایت دانشگاه بخوانید:
https://aut.ac.ir/content/19994/
@polytechnic1307
نشست به سوی هوش مصنوعی انسان گونه با تمرکز بر «چگونگی» به جای «چیستی» از سلسله سخنرانی های تخصصی مهندسی کامیپوتر برگزار میشود...
مشروح را در سایت دانشگاه بخوانید:
https://aut.ac.ir/content/19994/
@polytechnic1307
🚀 Join Martha White’s Talk at Sharif University of Technology
🎙 Title: Better Actor-Critic Algorithms for RL
👨🏫 Speaker: Martha White (Associate Professor at the University of Alberta, Canada CIFAR AI Chair, and Fellow of the Alberta Machine Intelligence Institute)
📅 Date: Thursday (June 5, 2025)
🕗 Time: 7:30 PM Iran Time
💡 Sign Up Here: https://forms.gle/eNRZSccp2eHEUdZz8
@DeepRLCourse
🎙 Title: Better Actor-Critic Algorithms for RL
👨🏫 Speaker: Martha White (Associate Professor at the University of Alberta, Canada CIFAR AI Chair, and Fellow of the Alberta Machine Intelligence Institute)
📅 Date: Thursday (June 5, 2025)
🕗 Time: 7:30 PM Iran Time
💡 Sign Up Here: https://forms.gle/eNRZSccp2eHEUdZz8
@DeepRLCourse
کهیعص. همانطور که قول دادهبودیم، برای مدتها سعیکردیم مطالب مربتط با پا لت.ییک ننویسیم ولی بعد از مدتها حالا وقت نوشتن مواردی است. اگر صادق باشیم، سال قبل بعد از زدن سد حسن بهکل ناامید شدیم. الان شاید همه مفهوم عمق استراتژیک را بفهمند و مفهوم حکو می.ت پوشالییی. تمدن ایران در تاریخ معروف به داشتن سیستم پ.وشاللی بوده است. این مفهوم به این معنی است که همواره در ای.. ران. تلاش میکردند که خارچ از مرزها فضایی ایجاد شود که جنگ به داخل کشیده نشود. پارسال که سد ح سن را زدند دیگه ننوشتیم چون فهمیدیم پوشال اطراف ایران به کل از بین رفت. از طرفی بدلیل اینکه میدانستیم دانلد و تیم ایونچلیسطش قرار است بیاید، نمیخواستیم برای بچههای تیممان که در یو اس هستند مشکل پیشبیاید.
در این نوشته به مواردی اشاره می کنیم که فکر میکنیم لازم است به آنها اشاره شود. چند ماه پیش فیلم مهمی در ارتباط با ما در توتفیلیکس پخش شد به نام گورج. در آن فیلم عکسی که سه حاکم انگ.لیس، سویت یونین و یکی دیگه که کنار هم در تهران و بدون حضور کینگ ایران گرفته بودند را نشان دادند و در آخر فیلم تمام آن ناحیه را بامبارمنت کردند. بدلیل اینکه موارد متعددی را قصد داریم شفافکنیم، خیلی کوتاه فیلم را تفسیر می کنیم. هدف از آن تصویر این بود که آیرون را تجزیه کنند و بامبارمنت نهایی موردی است که در ادامه توضیح میدهیم. در این چند سال چه افرادی که با شرکت ما کار کردند وچه افرادی که از آموزشهایمان استفاده کردند میدانستند که کلا در کشورهای مختلف تیممان پخش شده است و به همین دلیل اطلاعات زیادی از قسمتهای متفاوت زمین (!) داریم.
دلیل فشارهایی که در این چندسال به آیرون وارد شد دو سورس دارد. اول برمیگردد به تحلیل قدیمی که یک اسپای سالها پیش ارایه کرد به وست و آن این بود که عجم را گشنه نگهدار و عرب را سیر. مورد بعدی به افاضات دیوید را..کفلر برمیگشت که گفته بود آیرون بدلیل ثروتهای طبیعیاش هیچوقت نباید آرام باشد. اخیرا هم روبیو (مینیستر آو استیت آو یو اس) صراحتا گفته که آیرونیان بدلیل باور به امام دوازدهم باید تحت سنکشن باشند.
اینجا چند نکته را ذکر میکنیم. ظاهرا جدی جدی سد علی همان سید ..خر.اسا..نی است و سد بدرال.دین هم همان یمانی است. در حال حاضر اگر این قضیه صادق باشد، بنابراین حدیث مشهور یطلبون الحق از اما.م باقر (ع) که ذکر میشود در بار سوم حقشان را میگیرند همین حالاست. با توجه به حدیثی دیگر، پیشبینی میکنیم بون سلمان کهن سالی را نبیند. اگر به این شکل باشد احتمالا یا پسر کینگ جوردن یا جولا..نی، سفیانی خواهد بود. نگارندهی این بخش همواره برایش سوال بود که در زمان ظهور چه میشود که خراسانی دستور نابودی اس..رایل را میدهد. ذکر شده که نابودشان میکند ولی با توجه به شرایط فعلی کانتریمون شاید واضح باشد که چه میشود. احتمال میدیم شاید با صلاح ات/می مردم عادی رو بزنند و به همین دلیل سد علی به سیم آخر بزند و حکم جهاد تاریخیش را که بیشتر از سههزار سال قبل پیشگویی شده بود را بدهد و بعد از اون به نظرمان این اتفاق بیافتد.
آیرون اول تمامی جوشکهای اروها و دیویدز اسلینگ را خالی کند. در ادامه آیرون تمامی ایرفورس و تکتک مکانهای حساس رو بزند و بعد ایرفورس و درونهای آیرونی مثل عقاب بر سر زای..ونیس.تهایی میریزد که زبان فااااااااااارررررررررررررررسسسسسسسسسسسسس رو نمیدونن در حالی که خود را میان دیوارهایی پنهان کردهاند و آیرونیها باقی مونده را با خفت از سرزمین قبلهی اول بیرون میندازن. بعد اتفاق بزرگ خواهد افتاد. اگر بهخاطر داشته باشید، هر پیشبینی که کردیم شدش. الان پیشبین نه بلکه پیشگویی میکنیم که حوادث چند ماه بعد منتج به وعدهی نهایی میشود. محمد آخر خواهد آمد. جنگی که سنو.ار. که نیم عمرش در پریزن سپری شد و چیز بزرگی از دنیا ندید، به تحولات بزرگی ختم خواهد شد.
اگر سربهسر تن به کشتن دهیم از آن به که کشور به زایونیست بیشرف دهیم
در این نوشته به مواردی اشاره می کنیم که فکر میکنیم لازم است به آنها اشاره شود. چند ماه پیش فیلم مهمی در ارتباط با ما در توتفیلیکس پخش شد به نام گورج. در آن فیلم عکسی که سه حاکم انگ.لیس، سویت یونین و یکی دیگه که کنار هم در تهران و بدون حضور کینگ ایران گرفته بودند را نشان دادند و در آخر فیلم تمام آن ناحیه را بامبارمنت کردند. بدلیل اینکه موارد متعددی را قصد داریم شفافکنیم، خیلی کوتاه فیلم را تفسیر می کنیم. هدف از آن تصویر این بود که آیرون را تجزیه کنند و بامبارمنت نهایی موردی است که در ادامه توضیح میدهیم. در این چند سال چه افرادی که با شرکت ما کار کردند وچه افرادی که از آموزشهایمان استفاده کردند میدانستند که کلا در کشورهای مختلف تیممان پخش شده است و به همین دلیل اطلاعات زیادی از قسمتهای متفاوت زمین (!) داریم.
دلیل فشارهایی که در این چندسال به آیرون وارد شد دو سورس دارد. اول برمیگردد به تحلیل قدیمی که یک اسپای سالها پیش ارایه کرد به وست و آن این بود که عجم را گشنه نگهدار و عرب را سیر. مورد بعدی به افاضات دیوید را..کفلر برمیگشت که گفته بود آیرون بدلیل ثروتهای طبیعیاش هیچوقت نباید آرام باشد. اخیرا هم روبیو (مینیستر آو استیت آو یو اس) صراحتا گفته که آیرونیان بدلیل باور به امام دوازدهم باید تحت سنکشن باشند.
اینجا چند نکته را ذکر میکنیم. ظاهرا جدی جدی سد علی همان سید ..خر.اسا..نی است و سد بدرال.دین هم همان یمانی است. در حال حاضر اگر این قضیه صادق باشد، بنابراین حدیث مشهور یطلبون الحق از اما.م باقر (ع) که ذکر میشود در بار سوم حقشان را میگیرند همین حالاست. با توجه به حدیثی دیگر، پیشبینی میکنیم بون سلمان کهن سالی را نبیند. اگر به این شکل باشد احتمالا یا پسر کینگ جوردن یا جولا..نی، سفیانی خواهد بود. نگارندهی این بخش همواره برایش سوال بود که در زمان ظهور چه میشود که خراسانی دستور نابودی اس..رایل را میدهد. ذکر شده که نابودشان میکند ولی با توجه به شرایط فعلی کانتریمون شاید واضح باشد که چه میشود. احتمال میدیم شاید با صلاح ات/می مردم عادی رو بزنند و به همین دلیل سد علی به سیم آخر بزند و حکم جهاد تاریخیش را که بیشتر از سههزار سال قبل پیشگویی شده بود را بدهد و بعد از اون به نظرمان این اتفاق بیافتد.
آیرون اول تمامی جوشکهای اروها و دیویدز اسلینگ را خالی کند. در ادامه آیرون تمامی ایرفورس و تکتک مکانهای حساس رو بزند و بعد ایرفورس و درونهای آیرونی مثل عقاب بر سر زای..ونیس.تهایی میریزد که زبان فااااااااااارررررررررررررررسسسسسسسسسسسسس رو نمیدونن در حالی که خود را میان دیوارهایی پنهان کردهاند و آیرونیها باقی مونده را با خفت از سرزمین قبلهی اول بیرون میندازن. بعد اتفاق بزرگ خواهد افتاد. اگر بهخاطر داشته باشید، هر پیشبینی که کردیم شدش. الان پیشبین نه بلکه پیشگویی میکنیم که حوادث چند ماه بعد منتج به وعدهی نهایی میشود. محمد آخر خواهد آمد. جنگی که سنو.ار. که نیم عمرش در پریزن سپری شد و چیز بزرگی از دنیا ندید، به تحولات بزرگی ختم خواهد شد.
اگر سربهسر تن به کشتن دهیم از آن به که کشور به زایونیست بیشرف دهیم