🔺 چند سالی میشه که دنیای هوش مصنوعی زیر و رو شده و تغییرات خیلی زیادی به خودش دیده. عموم این تغییرات هم طوری رخ دادهاند که تاثیر زیادی در میزان عملکرد رباتها و مدلهای کامپیوتری ایجاد کردن و علم پیشرفت زیادی به خودش دیده.
🔺 یکی از مواردی که تغییر به سزایی ایجاد کرده، معرفی یک معماری شبکه عصبی هست با عنوان Transformer که در سال ۲۰۱۷ و در مقالهآی با عنوان Attention is All You Need معرفی شد و از اون زمان به یکی از اجزای اصلی در پیشرفتهای مدلهای زبان طبیعی و بینایی ماشین تبدیل شده. این معماری بر پایهی مکانیزم توجه متمرکز هست و از دو بخش اصلی Encoder و Decoder ساخته شده.
🔹 ذکر این نکته اهمیت زیادی داره که مقالههای هوش مصنوعی معمولا پیچیدگی بالایی دارند و حالات مختلفی رو بررسی کردن، برای همین خلاصه کردن اونها در یک متن شاید شامل سادهسازی خیلی زیادی بخشهای مختلفی باشه که لزوما ساده نیستن. برای همین پیشنهاد میکنم در کنار مطالعهی این متن، حتما به مطالعهی خود مقالات نیز بپردازین اگر علاقهمند بودید بیشتر در این زمینه عمیق بشین.
🔺 بخش Encoder: این بخش شامل چند لایه هست که هر کدوم دارای ۲ بخش اصلی هستن. sub-layer توجه چند سر (multi-head attention) و شبکه عصبی پیشرو (feed-forward neural network). لایههای توجه چند سر به مدل امکان میدن تا اطلاعات رو از بخشهای مختلف ورودی به طور همزمان درک کنه، در نتیجه تفسیر متن کارآمدتر صورت میگیره. بعد از این، هر لایه از شبکه پیشرو عبور میکنه که شامل تبدیلهای خطی ساده و توابع غیرخطی هست.
🔺 بخش Decoder: این بخش هم مشابه بخش Encoder هست اما با افزودن یک لایهی attention دیگه به اون، cross-attention میگن. این لایه اجازه میده که Decoder بتونه به خروجیهای Encoder دسترسی داشته باشه و اطلاعات لازم رو برای تولید خروجی بعدی از اون استخراج کنه. برای مثال ترجمهی ماشینی با توجه به کلمات ورودی، کلمات خروجی رو تولید میکنه و این دسترسی اونجا کاربری زیادی داره.
🔹 در واقع ایده از اینجایی میاد که فرض کنید برای اینکه هوش مصنوعی حدس بزنه کلمهی بعدی مورد استفاده چی باشه، میاد ورودیها رو بررسی میکنه و میبینه معمولا بعد هر کلمه چه کلماتی استفاده میشه و یک توزیع احتمالی از ارتباطات کلمات و objectها تشکیل میشه که کمک میکنه انتخابهای بعدی، دقیقترین و مرسومترین انتخابها باشن. حالا این ایده رو مقایسه کنید با بچهای که در حال آموزش تکلم هست و کلماتی که در ابتدا به کار میبره، معمولا کلماتی هستن که بیش از همیشه شنیده کنار هم و به مرور ارتباطشون با هم رو سنجیده.
🔺 چند سالی میشه که دنیای هوش مصنوعی زیر و رو شده و تغییرات خیلی زیادی به خودش دیده. عموم این تغییرات هم طوری رخ دادهاند که تاثیر زیادی در میزان عملکرد رباتها و مدلهای کامپیوتری ایجاد کردن و علم پیشرفت زیادی به خودش دیده.
🔺 یکی از مواردی که تغییر به سزایی ایجاد کرده، معرفی یک معماری شبکه عصبی هست با عنوان Transformer که در سال ۲۰۱۷ و در مقالهآی با عنوان Attention is All You Need معرفی شد و از اون زمان به یکی از اجزای اصلی در پیشرفتهای مدلهای زبان طبیعی و بینایی ماشین تبدیل شده. این معماری بر پایهی مکانیزم توجه متمرکز هست و از دو بخش اصلی Encoder و Decoder ساخته شده.
🔹 ذکر این نکته اهمیت زیادی داره که مقالههای هوش مصنوعی معمولا پیچیدگی بالایی دارند و حالات مختلفی رو بررسی کردن، برای همین خلاصه کردن اونها در یک متن شاید شامل سادهسازی خیلی زیادی بخشهای مختلفی باشه که لزوما ساده نیستن. برای همین پیشنهاد میکنم در کنار مطالعهی این متن، حتما به مطالعهی خود مقالات نیز بپردازین اگر علاقهمند بودید بیشتر در این زمینه عمیق بشین.
🔺 بخش Encoder: این بخش شامل چند لایه هست که هر کدوم دارای ۲ بخش اصلی هستن. sub-layer توجه چند سر (multi-head attention) و شبکه عصبی پیشرو (feed-forward neural network). لایههای توجه چند سر به مدل امکان میدن تا اطلاعات رو از بخشهای مختلف ورودی به طور همزمان درک کنه، در نتیجه تفسیر متن کارآمدتر صورت میگیره. بعد از این، هر لایه از شبکه پیشرو عبور میکنه که شامل تبدیلهای خطی ساده و توابع غیرخطی هست.
🔺 بخش Decoder: این بخش هم مشابه بخش Encoder هست اما با افزودن یک لایهی attention دیگه به اون، cross-attention میگن. این لایه اجازه میده که Decoder بتونه به خروجیهای Encoder دسترسی داشته باشه و اطلاعات لازم رو برای تولید خروجی بعدی از اون استخراج کنه. برای مثال ترجمهی ماشینی با توجه به کلمات ورودی، کلمات خروجی رو تولید میکنه و این دسترسی اونجا کاربری زیادی داره.
🔹 در واقع ایده از اینجایی میاد که فرض کنید برای اینکه هوش مصنوعی حدس بزنه کلمهی بعدی مورد استفاده چی باشه، میاد ورودیها رو بررسی میکنه و میبینه معمولا بعد هر کلمه چه کلماتی استفاده میشه و یک توزیع احتمالی از ارتباطات کلمات و objectها تشکیل میشه که کمک میکنه انتخابهای بعدی، دقیقترین و مرسومترین انتخابها باشن. حالا این ایده رو مقایسه کنید با بچهای که در حال آموزش تکلم هست و کلماتی که در ابتدا به کار میبره، معمولا کلماتی هستن که بیش از همیشه شنیده کنار هم و به مرور ارتباطشون با هم رو سنجیده.
How to create a business channel on Telegram? (Tutorial) Ng was convicted in April for conspiracy to incite a riot, public nuisance, arson, criminal damage, manufacturing of explosives, administering poison and wounding with intent to do grievous bodily harm between October 2019 and June 2020. "Doxxing content is forbidden on Telegram and our moderators routinely remove such content from around the world," said a spokesman for the messaging app, Remi Vaughn. There have been several contributions to the group with members posting voice notes of screaming, yelling, groaning, and wailing in different rhythms and pitches. Calling out the “degenerate” community or the crypto obsessives that engage in high-risk trading, Co-founder of NFT renting protocol Rentable World emiliano.eth shared this group on his Twitter. He wrote: “hey degen, are you stressed? Just let it out all out. Voice only tg channel for screaming”. The administrator of a telegram group, "Suck Channel," was sentenced to six years and six months in prison for seven counts of incitement yesterday.
from us