CLASS_VISION Telegram 630
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
سرفصل های این دوره:

قسمت اول – 18 دقیقه - مقدمات شبکه های بازگشتی
قسمت دوم – 21 دقیقه - یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – 32 دقیقه - پیاده‌سازی تخمین تابع با شبکه‌های بازگشتی ساده
قسمت چهارم – 4 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۱)
قسمت پنجم – 11 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۲)
قسمت شـشـم – 19 دقیقه - محو شدگی و انفجار گرادیان‌ها در شبکه‌های بازگشتی
قسمت هفتم – 26 دقیقه - شبکه‌های GRU
قسمت هشتم – 8 دقیقه - شبکه‌های LSTM
قسمت نهم – 9 دقیقه - دیاگرام شبکه‎های LSTM
قسمت دهم – 9 دقیقه - مثال‌هایی از داده‌های توالی و ترتیبی
قسمت یازدهم – 5 دقیقه - شبکه‌های بازگشتی عمیق
قسمت دوازدهم – 34 دقیقه - تخمین قیمت ارزهای دیجیتال – پیش‌پردازش داده
قسمت سیزدهم – 22 دقیقه - تخمین قیمت ارزهای دیجیتال – بالانس کردن داده‌ها و آموزش
قسمت چهاردهم – 34 دقیقه - شبکه‌های بازگشتی برای طبقه‌بندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – 41 دقیقه - مثال دوم طبقه‌بندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – 32 دقیقه - درک بردار کلمات و بازنمایی آن‌ها
قسمت هفدهم – 11 دقیقه - ویژگی‌های بازنمایی کلمات و لایه Embedding
قسمت هجدهم – 27 دقیقه - مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – 14 دقیقه - طبقه‌بندی متن
قسمت بـیـسـتـم – 20 دقیقه - پیاده‌سازی طبقه‌بندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – 29 دقیقه - طبقه‌بندی متن با شبکه بازگشتی
قسمت بیست و دوم – 57 دقیقه - مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –16 دقیقه - جمع‌بندی و معرفی شبکه‌های بازگشتی دوطرفه
قسمت بیست و چهارم – 14 دقیقه - مدل‌های توالی به توالی
قسمت بیست و پنجم – 27 دقیقه - مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – 15 دقیقه - مقدمات ترجمه ماشینی
قسمت بیست و هفتم – 15 دقیقه - الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – 60 دقیقه - مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – 30 دقیقه - پیاده‌سازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـی‌ام – 15 دقیقه - روش کمک معلم
قسمت سی و یکم – 41 دقیقه - پیاده‌سازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی‌ و دوم – 28 دقیقه - شرح تصاویر با توجه بصری


Part 1 – 18 Minutes - Introduction to Recurrent Neural Networks
Part 2 – 21 Minutes - A Simple RNN Unit & RNN Network
Part 3 – 32 Minutes - Sinewave Prediction using RNN
Part 4 – 4 Minutes - Variable RNN sequence lengths (1)
Part 5 – 11 Minutes - Variable RNN sequence lengths (2)
Part 6 – 19 Minutes - Exploding and Vanishing Gradients in RNNs
Part 7 – 26 Minutes - Gated Recurrent Unit (GRU) Networks
Part 8 – 8 Minutes - Long Short-Term Memory (LSTM) Networks
Part 9 – 9 Minutes - LSTM in Picture
Part 10 – 9 Minutes - Examples of Sequential Data
Part 11 – 5 Minutes - Deep RNNs
Part 12 – 34 Minutes - Cryptocurrency Price Prediction – Data Pre-Processing
Part 13 – 22 Minutes - Cryptocurrency Price Prediction – Handling Imbalanced Data and Model Training
Part 14 – 34 Minutes - RNN for Image Classification – Determining the Direction of the Ball
Part 15 – 41 Minutes - Video Classification and Action Recognition using RNN
Part 16 – 32 Minutes - Understanding Word Embeddings
Part 17 – 11 Minutes - Word Analogy, Embedding Layer in Keras
Part 18 – 27 Minutes - Solving Analogies by Representing Words as Vectors
Part 19 – 14 Minutes - Text Classification
Part 20 – 20 Minutes - Bag-of-Embeddings for Text Classification
Part 21 – 29 Minutes - Text Classification with an RNN
Part 22 – 57 Minutes - Text Generation with an RNN (Language Model)
Part 23 – 16 Minutes - Review – Bidirectional RNNs
Part 24 – 14 Minutes - Seq2Seq Models
Part 25 – 27 Minutes - Practical Example of Seq2Seq for Understanding the Mathematical Operations
Part 26 – 15 Minutes - Introduction to Machine Translation
Part 27 – 15 Minutes - Beam Search
Part 28 – 60 Minutes - Attention in Neural Machine Translation
Part 29 – 30 Minutes - Neural Machine Translation for Converting Date in Keras
Part 30 – 15 Minutes - Teacher Forcing
Part 31 – 41 Minutes - Neural Machine Translation with Attention and Teacher Forcingin TF2.0
Part 32 – 28 Minutes - Image Captioning with Visual Attention



tgoop.com/class_vision/630
Create:
Last Update:

سرفصل های این دوره:

قسمت اول – 18 دقیقه - مقدمات شبکه های بازگشتی
قسمت دوم – 21 دقیقه - یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – 32 دقیقه - پیاده‌سازی تخمین تابع با شبکه‌های بازگشتی ساده
قسمت چهارم – 4 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۱)
قسمت پنجم – 11 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۲)
قسمت شـشـم – 19 دقیقه - محو شدگی و انفجار گرادیان‌ها در شبکه‌های بازگشتی
قسمت هفتم – 26 دقیقه - شبکه‌های GRU
قسمت هشتم – 8 دقیقه - شبکه‌های LSTM
قسمت نهم – 9 دقیقه - دیاگرام شبکه‎های LSTM
قسمت دهم – 9 دقیقه - مثال‌هایی از داده‌های توالی و ترتیبی
قسمت یازدهم – 5 دقیقه - شبکه‌های بازگشتی عمیق
قسمت دوازدهم – 34 دقیقه - تخمین قیمت ارزهای دیجیتال – پیش‌پردازش داده
قسمت سیزدهم – 22 دقیقه - تخمین قیمت ارزهای دیجیتال – بالانس کردن داده‌ها و آموزش
قسمت چهاردهم – 34 دقیقه - شبکه‌های بازگشتی برای طبقه‌بندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – 41 دقیقه - مثال دوم طبقه‌بندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – 32 دقیقه - درک بردار کلمات و بازنمایی آن‌ها
قسمت هفدهم – 11 دقیقه - ویژگی‌های بازنمایی کلمات و لایه Embedding
قسمت هجدهم – 27 دقیقه - مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – 14 دقیقه - طبقه‌بندی متن
قسمت بـیـسـتـم – 20 دقیقه - پیاده‌سازی طبقه‌بندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – 29 دقیقه - طبقه‌بندی متن با شبکه بازگشتی
قسمت بیست و دوم – 57 دقیقه - مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –16 دقیقه - جمع‌بندی و معرفی شبکه‌های بازگشتی دوطرفه
قسمت بیست و چهارم – 14 دقیقه - مدل‌های توالی به توالی
قسمت بیست و پنجم – 27 دقیقه - مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – 15 دقیقه - مقدمات ترجمه ماشینی
قسمت بیست و هفتم – 15 دقیقه - الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – 60 دقیقه - مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – 30 دقیقه - پیاده‌سازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـی‌ام – 15 دقیقه - روش کمک معلم
قسمت سی و یکم – 41 دقیقه - پیاده‌سازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی‌ و دوم – 28 دقیقه - شرح تصاویر با توجه بصری


Part 1 – 18 Minutes - Introduction to Recurrent Neural Networks
Part 2 – 21 Minutes - A Simple RNN Unit & RNN Network
Part 3 – 32 Minutes - Sinewave Prediction using RNN
Part 4 – 4 Minutes - Variable RNN sequence lengths (1)
Part 5 – 11 Minutes - Variable RNN sequence lengths (2)
Part 6 – 19 Minutes - Exploding and Vanishing Gradients in RNNs
Part 7 – 26 Minutes - Gated Recurrent Unit (GRU) Networks
Part 8 – 8 Minutes - Long Short-Term Memory (LSTM) Networks
Part 9 – 9 Minutes - LSTM in Picture
Part 10 – 9 Minutes - Examples of Sequential Data
Part 11 – 5 Minutes - Deep RNNs
Part 12 – 34 Minutes - Cryptocurrency Price Prediction – Data Pre-Processing
Part 13 – 22 Minutes - Cryptocurrency Price Prediction – Handling Imbalanced Data and Model Training
Part 14 – 34 Minutes - RNN for Image Classification – Determining the Direction of the Ball
Part 15 – 41 Minutes - Video Classification and Action Recognition using RNN
Part 16 – 32 Minutes - Understanding Word Embeddings
Part 17 – 11 Minutes - Word Analogy, Embedding Layer in Keras
Part 18 – 27 Minutes - Solving Analogies by Representing Words as Vectors
Part 19 – 14 Minutes - Text Classification
Part 20 – 20 Minutes - Bag-of-Embeddings for Text Classification
Part 21 – 29 Minutes - Text Classification with an RNN
Part 22 – 57 Minutes - Text Generation with an RNN (Language Model)
Part 23 – 16 Minutes - Review – Bidirectional RNNs
Part 24 – 14 Minutes - Seq2Seq Models
Part 25 – 27 Minutes - Practical Example of Seq2Seq for Understanding the Mathematical Operations
Part 26 – 15 Minutes - Introduction to Machine Translation
Part 27 – 15 Minutes - Beam Search
Part 28 – 60 Minutes - Attention in Neural Machine Translation
Part 29 – 30 Minutes - Neural Machine Translation for Converting Date in Keras
Part 30 – 15 Minutes - Teacher Forcing
Part 31 – 41 Minutes - Neural Machine Translation with Attention and Teacher Forcingin TF2.0
Part 32 – 28 Minutes - Image Captioning with Visual Attention

BY کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر


Share with your friend now:
tgoop.com/class_vision/630

View MORE
Open in Telegram


Telegram News

Date: |

The visual aspect of channels is very critical. In fact, design is the first thing that a potential subscriber pays attention to, even though unconsciously. Find your optimal posting schedule and stick to it. The peak posting times include 8 am, 6 pm, and 8 pm on social media. Try to publish serious stuff in the morning and leave less demanding content later in the day. Add up to 50 administrators During the meeting with TSE Minister Edson Fachin, Perekopsky also mentioned the TSE channel on the platform as one of the firm's key success stories. Launched as part of the company's commitments to tackle the spread of fake news in Brazil, the verified channel has attracted more than 184,000 members in less than a month. Telegram iOS app: In the “Chats” tab, click the new message icon in the right upper corner. Select “New Channel.”
from us


Telegram کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
FROM American