PYRAMID_RESEARCH Telegram 92
📕 دنیای ترنسفورمرها، آغاز واقعی هوش مصنوعی

🚨 زمان مطالعه: ۲ دقیقه و نیم

🔗 #مقاله
🔗 #مهندسی
🔗 #هوش‌مصنوعی

🔺 چند سالی می‌شه که دنیای هوش مصنوعی زیر و رو شده و تغییرات خیلی زیادی به خودش دیده. عموم این تغییرات هم طوری رخ داده‌اند که تاثیر زیادی در میزان عملکرد ربا‌ت‌ها و مدل‌های کامپیوتری ایجاد کردن و علم پیشرفت زیادی به خودش دیده.

🔺 یکی از مواردی که تغییر به سزایی ایجاد کرده، معرفی یک معماری شبکه عصبی هست با عنوان Transformer که در سال ۲۰۱۷ و در مقاله‌آی با عنوان Attention is All You Need معرفی شد و از اون زمان به یکی از اجزای اصلی در پیشرفت‌های مدل‌های زبان طبیعی و بینایی ماشین تبدیل شده. این معماری بر پایه‌ی مکانیزم توجه متمرکز هست و از دو بخش اصلی Encoder و Decoder ساخته شده.

🔹 ذکر این نکته اهمیت زیادی داره که مقاله‌های هوش مصنوعی معمولا پیچیدگی بالایی دارند و حالات مختلفی رو بررسی کردن، برای همین خلاصه کردن اون‌ها در یک متن شاید شامل ساده‌سازی خیلی زیادی بخش‌های مختلفی باشه که لزوما ساده نیستن. برای همین پیشنهاد می‌کنم در کنار مطالعه‌ی این متن، حتما به مطالعه‌ی خود مقالات نیز بپردازین اگر علاقه‌مند بودید بیشتر در این زمینه عمیق بشین.

🔺 بخش Encoder: این بخش شامل چند لایه هست که هر کدوم دارای ۲ بخش اصلی هستن. sub-layer توجه چند سر (multi-head attention) و شبکه عصبی پیش‌رو (feed-forward neural network). لایه‌های توجه چند سر به مدل امکان می‌دن تا اطلاعات رو از بخش‌های مختلف ورودی به طور همزمان درک کنه، در نتیجه تفسیر متن کارآمدتر صورت می‌گیره. بعد از این، هر لایه از شبکه پیش‌رو عبور می‌کنه که شامل تبدیل‌های خطی ساده و توابع غیرخطی هست.

🔺 بخش Decoder: این بخش هم مشابه بخش Encoder هست اما با افزودن یک لایه‌ی attention دیگه به اون، cross-attention می‌گن. این لایه اجازه می‌ده که Decoder بتونه به خروجی‌های Encoder دسترسی داشته باشه و اطلاعات لازم رو برای تولید خروجی بعدی از اون استخراج کنه. برای مثال ترجمه‌ی ماشینی با توجه به کلمات ورودی، کلمات خروجی رو تولید می‌کنه و این دسترسی اون‌جا کاربری زیادی داره.

🔹 در واقع ایده از این‌جایی میاد که فرض کنید برای این‌که هوش مصنوعی حدس بزنه کلمه‌ی بعدی مورد استفاده چی باشه، میاد ورودی‌ها رو بررسی می‌کنه و می‌بینه معمولا بعد هر کلمه چه کلماتی استفاده می‌شه و یک توزیع احتمالی از ارتباطات کلمات و objectها تشکیل می‌شه که کمک می‌کنه انتخاب‌های بعدی، دقیق‌ترین و مرسوم‌ترین انتخاب‌ها باشن. حالا این ایده رو مقایسه کنید با بچه‌ای که در حال آموزش تکلم هست و کلماتی که در ابتدا به کار می‌بره، معمولا کلماتی هستن که بیش از همیشه شنیده کنار هم و به مرور ارتباط‌شون با هم رو سنجیده.

🔖 لینک مقاله:
🔗 https://arxiv.org/abs/1706.03762

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM



tgoop.com/Pyramid_Research/92
Create:
Last Update:

📕 دنیای ترنسفورمرها، آغاز واقعی هوش مصنوعی

🚨 زمان مطالعه: ۲ دقیقه و نیم

🔗 #مقاله
🔗 #مهندسی
🔗 #هوش‌مصنوعی

🔺 چند سالی می‌شه که دنیای هوش مصنوعی زیر و رو شده و تغییرات خیلی زیادی به خودش دیده. عموم این تغییرات هم طوری رخ داده‌اند که تاثیر زیادی در میزان عملکرد ربا‌ت‌ها و مدل‌های کامپیوتری ایجاد کردن و علم پیشرفت زیادی به خودش دیده.

🔺 یکی از مواردی که تغییر به سزایی ایجاد کرده، معرفی یک معماری شبکه عصبی هست با عنوان Transformer که در سال ۲۰۱۷ و در مقاله‌آی با عنوان Attention is All You Need معرفی شد و از اون زمان به یکی از اجزای اصلی در پیشرفت‌های مدل‌های زبان طبیعی و بینایی ماشین تبدیل شده. این معماری بر پایه‌ی مکانیزم توجه متمرکز هست و از دو بخش اصلی Encoder و Decoder ساخته شده.

🔹 ذکر این نکته اهمیت زیادی داره که مقاله‌های هوش مصنوعی معمولا پیچیدگی بالایی دارند و حالات مختلفی رو بررسی کردن، برای همین خلاصه کردن اون‌ها در یک متن شاید شامل ساده‌سازی خیلی زیادی بخش‌های مختلفی باشه که لزوما ساده نیستن. برای همین پیشنهاد می‌کنم در کنار مطالعه‌ی این متن، حتما به مطالعه‌ی خود مقالات نیز بپردازین اگر علاقه‌مند بودید بیشتر در این زمینه عمیق بشین.

🔺 بخش Encoder: این بخش شامل چند لایه هست که هر کدوم دارای ۲ بخش اصلی هستن. sub-layer توجه چند سر (multi-head attention) و شبکه عصبی پیش‌رو (feed-forward neural network). لایه‌های توجه چند سر به مدل امکان می‌دن تا اطلاعات رو از بخش‌های مختلف ورودی به طور همزمان درک کنه، در نتیجه تفسیر متن کارآمدتر صورت می‌گیره. بعد از این، هر لایه از شبکه پیش‌رو عبور می‌کنه که شامل تبدیل‌های خطی ساده و توابع غیرخطی هست.

🔺 بخش Decoder: این بخش هم مشابه بخش Encoder هست اما با افزودن یک لایه‌ی attention دیگه به اون، cross-attention می‌گن. این لایه اجازه می‌ده که Decoder بتونه به خروجی‌های Encoder دسترسی داشته باشه و اطلاعات لازم رو برای تولید خروجی بعدی از اون استخراج کنه. برای مثال ترجمه‌ی ماشینی با توجه به کلمات ورودی، کلمات خروجی رو تولید می‌کنه و این دسترسی اون‌جا کاربری زیادی داره.

🔹 در واقع ایده از این‌جایی میاد که فرض کنید برای این‌که هوش مصنوعی حدس بزنه کلمه‌ی بعدی مورد استفاده چی باشه، میاد ورودی‌ها رو بررسی می‌کنه و می‌بینه معمولا بعد هر کلمه چه کلماتی استفاده می‌شه و یک توزیع احتمالی از ارتباطات کلمات و objectها تشکیل می‌شه که کمک می‌کنه انتخاب‌های بعدی، دقیق‌ترین و مرسوم‌ترین انتخاب‌ها باشن. حالا این ایده رو مقایسه کنید با بچه‌ای که در حال آموزش تکلم هست و کلماتی که در ابتدا به کار می‌بره، معمولا کلماتی هستن که بیش از همیشه شنیده کنار هم و به مرور ارتباط‌شون با هم رو سنجیده.

🔖 لینک مقاله:
🔗 https://arxiv.org/abs/1706.03762

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم 💎 @Pyramid_Research»

BY آکادمی ریسرچ هرم ‌| Pyramid




Share with your friend now:
tgoop.com/Pyramid_Research/92

View MORE
Open in Telegram


Telegram News

Date: |

How to create a business channel on Telegram? (Tutorial) Ng was convicted in April for conspiracy to incite a riot, public nuisance, arson, criminal damage, manufacturing of explosives, administering poison and wounding with intent to do grievous bodily harm between October 2019 and June 2020. "Doxxing content is forbidden on Telegram and our moderators routinely remove such content from around the world," said a spokesman for the messaging app, Remi Vaughn. There have been several contributions to the group with members posting voice notes of screaming, yelling, groaning, and wailing in different rhythms and pitches. Calling out the “degenerate” community or the crypto obsessives that engage in high-risk trading, Co-founder of NFT renting protocol Rentable World emiliano.eth shared this group on his Twitter. He wrote: “hey degen, are you stressed? Just let it out all out. Voice only tg channel for screaming”. The administrator of a telegram group, "Suck Channel," was sentenced to six years and six months in prison for seven counts of incitement yesterday.
from us


Telegram آکادمی ریسرچ هرم ‌| Pyramid
FROM American