🧠 اگه واقعاً میخوای مدل ترنسفورمر رو بفهمی، باید خودت از پایه بسازیش!
کد زدن، بهترین راه یادگیریه! 🎯
✅ با استفاده از سایت زیر میتونی قدمبهقدم ترنسفورمر رو از صفر پیادهسازی کنی و با مفاهیم مهمی مثل self-attention، positional encoding و ساختار encoder/decoder آشنا بشی.
https://www.k-a.in/transformers.html
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
کد زدن، بهترین راه یادگیریه! 🎯
✅ با استفاده از سایت زیر میتونی قدمبهقدم ترنسفورمر رو از صفر پیادهسازی کنی و با مفاهیم مهمی مثل self-attention، positional encoding و ساختار encoder/decoder آشنا بشی.
https://www.k-a.in/transformers.html
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
📢 خبر داغ هوش مصنوعی از دنیای تکنولوژی!
🔥 تابستان امسال، کاربران تلگرام به پیشرفتهترین فناوری هوش مصنوعی دنیا دسترسی خواهند داشت!
💥 با همکاری رسمی بین Pavel Durov (بنیانگذار تلگرام) و Elon Musk، مدل هوش مصنوعی Grok از شرکت xAI بهزودی برای بیش از یک میلیارد کاربر تلگرام در دسترس قرار میگیرد و در تمام اپلیکیشنهای تلگرام یکپارچهسازی میشود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔥 تابستان امسال، کاربران تلگرام به پیشرفتهترین فناوری هوش مصنوعی دنیا دسترسی خواهند داشت!
💥 با همکاری رسمی بین Pavel Durov (بنیانگذار تلگرام) و Elon Musk، مدل هوش مصنوعی Grok از شرکت xAI بهزودی برای بیش از یک میلیارد کاربر تلگرام در دسترس قرار میگیرد و در تمام اپلیکیشنهای تلگرام یکپارچهسازی میشود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Learning to Reason without External Rewards
در این پژوهش نوآورانه، نشون داده شده که مدلهای زبانی بزرگ (LLMs) میتونن استدلالهای پیچیده رو بدون دسترسی به پاسخ درست یاد بگیرن!
❗️ چطور؟ فقط با تکیه بر «حس درونی اطمینان خودشون»
یعنی مدل بدون نیاز به پاداش یا دادههای واقعی از بیرون، خودش یاد میگیره که چه استدلالهایی براش قابل اعتمادتر هستن و مسیر یادگیری رو با همون معیار جلو میبره.
https://www.tgoop.com/AI_PaperStack/3
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
در این پژوهش نوآورانه، نشون داده شده که مدلهای زبانی بزرگ (LLMs) میتونن استدلالهای پیچیده رو بدون دسترسی به پاسخ درست یاد بگیرن!
❗️ چطور؟ فقط با تکیه بر «حس درونی اطمینان خودشون»
یعنی مدل بدون نیاز به پاداش یا دادههای واقعی از بیرون، خودش یاد میگیره که چه استدلالهایی براش قابل اعتمادتر هستن و مسیر یادگیری رو با همون معیار جلو میبره.
https://www.tgoop.com/AI_PaperStack/3
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
کورس رایگان و تعاملی از Anthropic برای علاقهمندان به مهندسی پرامپت!
https://github.com/anthropics/courses/tree/master/prompt_engineering_interactive_tutorial#beginner
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/anthropics/courses/tree/master/prompt_engineering_interactive_tutorial#beginner
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎥📚 ویدئوهای آموزشی + اسلایدهای درس «تحلیل الگوریتمها»
این منابع، همراه با کتاب مرجع، پایهایترین و مهمترین منابع برای یادگیری طراحی الگوریتم و ساختمان داده هستن.
اگر میخوای دنیای DSA رو درست و اصولی یاد بگیری، این مجموعه رو از دست نده! 💡🚀
https://www3.cs.stonybrook.edu/~skiena/373/videos/
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
این منابع، همراه با کتاب مرجع، پایهایترین و مهمترین منابع برای یادگیری طراحی الگوریتم و ساختمان داده هستن.
اگر میخوای دنیای DSA رو درست و اصولی یاد بگیری، این مجموعه رو از دست نده! 💡🚀
https://www3.cs.stonybrook.edu/~skiena/373/videos/
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
📊 مروری ساده بر پیچیدگیهای زمانی (Time Complexities)
اگه در دنیای الگوریتمها هستی، اینا باید ملکه ذهنت باشن! 👇🔥
1️⃣ O(1) – زمان ثابت
⏱️ مستقل از اندازه ورودی
📌 مثال: دسترسی به یک عنصر آرایه با استفاده از اندیس
2️⃣ O(log n) – زمان لگاریتمی
⏱️ رشد بسیار کند نسبت به اندازه ورودی
📌 مثال: جستجوی دودویی در آرایه مرتبشده
3️⃣ O(n) – زمان خطی
⏱️ متناسب با اندازه ورودی
📌 مثال: پیمایش کامل آرایه برای یافتن یک عنصر
4️⃣ O(n log n) – زمان خطی-لگاریتمی
⏱️ سریعتر از n² ولی کندتر از n
📌 مثال: مرتبسازی با quick sort یا merge sort
5️⃣ O(n²) – زمان درجه دوم (توان دو)
⏱️ با افزایش ورودی، زمان بهصورت مربعی افزایش پیدا میکنه
📌 مثال: مرتبسازی حبابی (Bubble Sort)
6️⃣ O(2ⁿ) – زمان نمایی
⏱️ هر بار که ورودی بزرگتر میشه، زمان دو برابر میشه
📌 مثال: تولید تمام زیرمجموعههای یک مجموعه
7️⃣ O(n!) – زمان فاکتوریلی
⏱️ بسیار پرهزینه و سنگین از نظر محاسباتی
📌 مثال: تولید همهی جایگشتهای یک مجموعه
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
اگه در دنیای الگوریتمها هستی، اینا باید ملکه ذهنت باشن! 👇🔥
1️⃣ O(1) – زمان ثابت
⏱️ مستقل از اندازه ورودی
📌 مثال: دسترسی به یک عنصر آرایه با استفاده از اندیس
2️⃣ O(log n) – زمان لگاریتمی
⏱️ رشد بسیار کند نسبت به اندازه ورودی
📌 مثال: جستجوی دودویی در آرایه مرتبشده
3️⃣ O(n) – زمان خطی
⏱️ متناسب با اندازه ورودی
📌 مثال: پیمایش کامل آرایه برای یافتن یک عنصر
4️⃣ O(n log n) – زمان خطی-لگاریتمی
⏱️ سریعتر از n² ولی کندتر از n
📌 مثال: مرتبسازی با quick sort یا merge sort
5️⃣ O(n²) – زمان درجه دوم (توان دو)
⏱️ با افزایش ورودی، زمان بهصورت مربعی افزایش پیدا میکنه
📌 مثال: مرتبسازی حبابی (Bubble Sort)
6️⃣ O(2ⁿ) – زمان نمایی
⏱️ هر بار که ورودی بزرگتر میشه، زمان دو برابر میشه
📌 مثال: تولید تمام زیرمجموعههای یک مجموعه
7️⃣ O(n!) – زمان فاکتوریلی
⏱️ بسیار پرهزینه و سنگین از نظر محاسباتی
📌 مثال: تولید همهی جایگشتهای یک مجموعه
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
Ego Graph
در دنیای هوش مصنوعی و پردازش زبان طبیعی، برای پاسخ به سؤالات پیچیده، تنها جستجوی متنی کافی نیست. اینجاست که ماژول بازیابی گراف وارد عمل میشود و با استفاده از ساختاری به نام Ego Graph، اطلاعات مرتبط را از گراف دانش استخراج میکند.
🔹 در واقع Ego Graph تصویری از یک موجودیت (مثلاً یک شخص یا مفهوم) و ارتباطات مستقیم آن با موجودیتهای دیگر است. این ساختار به ما کمک میکند تا شبکهای از اطلاعات مرتبط با موضوع مورد نظر را بررسی کنیم.
🔹 کاربرد در ماژول بازیابی گراف:
شناسایی موجودیتهای کلیدی: ابتدا موجودیتهای مرتبط با سؤال شناسایی میشوند.
استخراج Ego Graph: برای هر موجودیت، Ego Graph مربوطه از گراف دانش استخراج میشود.
تقاطع گرافها: اگر چندین Ego Graph استخراج شده باشد، تقاطع آنها برای یافتن اطلاعات مشترک و مرتبط بررسی میشود.
ارائه خروجی: نتایج به دو صورت ارائه میشوند:
مسیرهای استدلالی بین موجودیتها
اسناد مرتبط با موجودیتهای موجود در زیرگراف
این فرآیند به مدلهای زبانی کمک میکند تا پاسخهای دقیقتر و مبتنی بر دانش ساختاری ارائه دهند.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
در دنیای هوش مصنوعی و پردازش زبان طبیعی، برای پاسخ به سؤالات پیچیده، تنها جستجوی متنی کافی نیست. اینجاست که ماژول بازیابی گراف وارد عمل میشود و با استفاده از ساختاری به نام Ego Graph، اطلاعات مرتبط را از گراف دانش استخراج میکند.
🔹 در واقع Ego Graph تصویری از یک موجودیت (مثلاً یک شخص یا مفهوم) و ارتباطات مستقیم آن با موجودیتهای دیگر است. این ساختار به ما کمک میکند تا شبکهای از اطلاعات مرتبط با موضوع مورد نظر را بررسی کنیم.
🔹 کاربرد در ماژول بازیابی گراف:
شناسایی موجودیتهای کلیدی: ابتدا موجودیتهای مرتبط با سؤال شناسایی میشوند.
استخراج Ego Graph: برای هر موجودیت، Ego Graph مربوطه از گراف دانش استخراج میشود.
تقاطع گرافها: اگر چندین Ego Graph استخراج شده باشد، تقاطع آنها برای یافتن اطلاعات مشترک و مرتبط بررسی میشود.
ارائه خروجی: نتایج به دو صورت ارائه میشوند:
مسیرهای استدلالی بین موجودیتها
اسناد مرتبط با موجودیتهای موجود در زیرگراف
این فرآیند به مدلهای زبانی کمک میکند تا پاسخهای دقیقتر و مبتنی بر دانش ساختاری ارائه دهند.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
🔥 دانشگاه MIT یکی از معتبرترین دانشگاههای جهان، دورهی فشردهی "Introduction to Deep Learning" رو آغاز کرده!
🎥 ویدیوهای این کورس فوقالعاده در حال آپلود روی YouTube هستن، و قسمت اولش همین حالا منتشر شده!
🔍 اگه به یادگیری عمیق (Deep Learning) علاقهمندید یا میخواید با یکی از بهترین منابع آموزشی جهان یادگیری رو شروع کنید، این فرصت رو از دست ندید.
https://www.youtube.com/watch?v=alfdI7S6wCY&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI
Web Site: https://introtodeeplearning.com/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎥 ویدیوهای این کورس فوقالعاده در حال آپلود روی YouTube هستن، و قسمت اولش همین حالا منتشر شده!
🔍 اگه به یادگیری عمیق (Deep Learning) علاقهمندید یا میخواید با یکی از بهترین منابع آموزشی جهان یادگیری رو شروع کنید، این فرصت رو از دست ندید.
https://www.youtube.com/watch?v=alfdI7S6wCY&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI
Web Site: https://introtodeeplearning.com/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ز PDF تا پوستر حرفهای — با کمک ایجنتهای هوشمند!
ما به یه پروژهی فوقالعاده برخوردیم به نام Paper2Poster ✨
این ابزار با بهرهگیری از ایجنتهای هوشمند مثل CAMEL و OWL، مقالات علمی رو به پوسترهای بصری، خلاصه و قابلدرک تبدیل میکنه! 😍🎨
🤖 یکی از کاربردیترین پروژههای AI برای محققان، دانشجوها و ارائههای علمیایه که اخیراً دیدیم!
🔍 اگه با مقالهنویسی یا ارائه علمی سروکار داری، حتماً Paper2Poster رو یه نگاه بنداز!
https://paper2poster.github.io/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ما به یه پروژهی فوقالعاده برخوردیم به نام Paper2Poster ✨
این ابزار با بهرهگیری از ایجنتهای هوشمند مثل CAMEL و OWL، مقالات علمی رو به پوسترهای بصری، خلاصه و قابلدرک تبدیل میکنه! 😍🎨
🤖 یکی از کاربردیترین پروژههای AI برای محققان، دانشجوها و ارائههای علمیایه که اخیراً دیدیم!
🔍 اگه با مقالهنویسی یا ارائه علمی سروکار داری، حتماً Paper2Poster رو یه نگاه بنداز!
https://paper2poster.github.io/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
میدونید معماری RAG (تولید افزودهشده با بازیابی) چطوری کار میکنه؟
🔶 مرحله A: آمادهسازی دادهها
همهچیز از منابع دادهی خام شروع میشه؛ مثل فایلهای PDF، صفحات وب، یا اسناد مختلف.
🔶 مرحله B: استخراج اطلاعات
دادهها با کمک ابزارهایی مثل OCR یا خزندههای وب استخراج میشن.
🔶 مرحله C: تقسیمبندی (Chunking)
برای اینکه اطلاعات بهتر فهمیده بشن، به تکههای کوچکتر (چانکها) تقسیم میشن.
🔶 مرحله D: تبدیل به بردار (Embedding)
اینجا هر تکه اطلاعات به شکلی تبدیل میشه که مدل زبانی بتونه بفهمه: یعنی بردار!
🔶 مرحله 2: ذخیرهسازی در پایگاه برداری (Vector Database)
بردارها در یک دیتابیس مخصوص ذخیره میشن تا بعداً قابل جستجو باشن.
🔍 مرحله 1: کاربر سوال میپرسه (Query)
کاربر سوالی میفرسته؛ اونم به بردار تبدیل میشه!
🔄 مرحله 3: جستجو در پایگاه برداری
سیستم دادههای مرتبط با سوال رو پیدا میکنه.
🤖 مرحله 4: ارسال به مدل زبانی (LLM)
دادههای بازیابیشده به مدل زبان بزرگ (مثل GPT) داده میشه تا پاسخ تولید بشه.
✅ مرحله 5: تولید پاسخ نهایی
در نهایت، پاسخ کامل و دقیق برمیگرده.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔶 مرحله A: آمادهسازی دادهها
همهچیز از منابع دادهی خام شروع میشه؛ مثل فایلهای PDF، صفحات وب، یا اسناد مختلف.
🔶 مرحله B: استخراج اطلاعات
دادهها با کمک ابزارهایی مثل OCR یا خزندههای وب استخراج میشن.
🔶 مرحله C: تقسیمبندی (Chunking)
برای اینکه اطلاعات بهتر فهمیده بشن، به تکههای کوچکتر (چانکها) تقسیم میشن.
🔶 مرحله D: تبدیل به بردار (Embedding)
اینجا هر تکه اطلاعات به شکلی تبدیل میشه که مدل زبانی بتونه بفهمه: یعنی بردار!
🔶 مرحله 2: ذخیرهسازی در پایگاه برداری (Vector Database)
بردارها در یک دیتابیس مخصوص ذخیره میشن تا بعداً قابل جستجو باشن.
🔍 مرحله 1: کاربر سوال میپرسه (Query)
کاربر سوالی میفرسته؛ اونم به بردار تبدیل میشه!
🔄 مرحله 3: جستجو در پایگاه برداری
سیستم دادههای مرتبط با سوال رو پیدا میکنه.
🤖 مرحله 4: ارسال به مدل زبانی (LLM)
دادههای بازیابیشده به مدل زبان بزرگ (مثل GPT) داده میشه تا پاسخ تولید بشه.
✅ مرحله 5: تولید پاسخ نهایی
در نهایت، پاسخ کامل و دقیق برمیگرده.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 آموزش اینترنت از دانشگاه برکلی!
اگه همیشه برات سؤال بوده که اینترنت واقعاً چجوری کار میکنه، این دوره فوقالعاده از دانشگاه UC Berkeley رو از دست نده!
📘 نام دوره:
مقدمهای بر اینترنت: معماری و پروتکلها
(CS 168 - Introduction to the Internet: Architecture and Protocols)
https://sp25.cs168.io/
📣👨💻 @AlgorithmDesign_DataStructuer
اگه همیشه برات سؤال بوده که اینترنت واقعاً چجوری کار میکنه، این دوره فوقالعاده از دانشگاه UC Berkeley رو از دست نده!
📘 نام دوره:
مقدمهای بر اینترنت: معماری و پروتکلها
(CS 168 - Introduction to the Internet: Architecture and Protocols)
https://sp25.cs168.io/
📣👨💻 @AlgorithmDesign_DataStructuer
🧠 تا حالا شده بخوای یه مدل زبانی بزرگ مثل LLaMA بتونه تصویر رو بفهمه، بدون اینکه بخوای آموزشش بدی؟
توی یه مقاله جدید یه روش خیلی جالب پیشنهاد شده به اسم:
Zero-Shot Vision Encoder Grafting
ایدهش اینه:
میان یه مدل کوچیک درست میکنن (بهش میگن surrogate) که از لایههای ابتدایی همون LLM استفاده میکنه. بعد یه رمزگذار بینایی (Vision Encoder) رو روی این مدل کوچیک آموزش میدن.
📌 حالا رمزگذار بینایی رو میگیرن و مستقیم میچسبونن به LLM اصلی! بدون اینکه LLM نیاز به آموزش داشته باشه
نکته: نماد (❄️)Freeze نشان میده که وزن های این رمزگذار در طول این فرایند به روز نمی شوند در واقع از قبل آموزش دیده و ثابت است.
نماد Traing (🔥) نشان دهنده که این مدل خاص در حال آموزش است.
https://arxiv.org/abs/2505.22664
Link github : https://github.com/facebookresearch/zero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
توی یه مقاله جدید یه روش خیلی جالب پیشنهاد شده به اسم:
Zero-Shot Vision Encoder Grafting
ایدهش اینه:
میان یه مدل کوچیک درست میکنن (بهش میگن surrogate) که از لایههای ابتدایی همون LLM استفاده میکنه. بعد یه رمزگذار بینایی (Vision Encoder) رو روی این مدل کوچیک آموزش میدن.
📌 حالا رمزگذار بینایی رو میگیرن و مستقیم میچسبونن به LLM اصلی! بدون اینکه LLM نیاز به آموزش داشته باشه
نکته: نماد (❄️)Freeze نشان میده که وزن های این رمزگذار در طول این فرایند به روز نمی شوند در واقع از قبل آموزش دیده و ثابت است.
نماد Traing (🔥) نشان دهنده که این مدل خاص در حال آموزش است.
https://arxiv.org/abs/2505.22664
Link github : https://github.com/facebookresearch/zero
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
انتشار مدلهای هوش مصنوعی گوگل برای تحلیل متون و تصاویر پزشکی
▪️ گوگل مدلهای جدیدی به نام #MedGemma را معرفی کرده است که به منظور پشتیبانی از تحلیل متون و تصاویر #پزشکی طراحی شدهاند. این مدلهای متنباز، بر اساس معماری Gemma 3 ساخته شده و در دو نسخه ارائه میشوند: MedGemma 4B که مدل چندوجهی برای پردازش همزمان تصویر و متن است و MedGemma 27B که بر تحلیل متون پزشکی متمرکز است. این مدلها به کاربران حوزه بهداشت و درمان کمک میکنند تا تحلیل کارآمدتری از دادههای پزشکی داشته باشند.
https://www.infoq.com/news/2025/05/google-medgemma/?utm_campaign=infoq_content&utm_source=infoq&utm_medium=feed&utm_term=AI%2C+ML+%26+Data+Engineering
github : https://github.com/google-health/medgemma
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
▪️ گوگل مدلهای جدیدی به نام #MedGemma را معرفی کرده است که به منظور پشتیبانی از تحلیل متون و تصاویر #پزشکی طراحی شدهاند. این مدلهای متنباز، بر اساس معماری Gemma 3 ساخته شده و در دو نسخه ارائه میشوند: MedGemma 4B که مدل چندوجهی برای پردازش همزمان تصویر و متن است و MedGemma 27B که بر تحلیل متون پزشکی متمرکز است. این مدلها به کاربران حوزه بهداشت و درمان کمک میکنند تا تحلیل کارآمدتری از دادههای پزشکی داشته باشند.
https://www.infoq.com/news/2025/05/google-medgemma/?utm_campaign=infoq_content&utm_source=infoq&utm_medium=feed&utm_term=AI%2C+ML+%26+Data+Engineering
github : https://github.com/google-health/medgemma
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
طراحی و تجسم معماری شبکههای عصبی همیشه یکی از سختترین بخشهای یادگیری عمیق بوده! 🎯
💡 اگه دنبال ابزارهایی هستی که باهاشون بتونی معماری مدلهات رو ویژوالایز یا طراحی کنی (مخصوصاً برای مستندات، ارائه، یا مقالات علمی)، ریپو زیر رو از دست ندهید:
https://github.com/ashishpatel26/Tools-to-Design-or-Visualize-Architecture-of-Neural-Network
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 اگه دنبال ابزارهایی هستی که باهاشون بتونی معماری مدلهات رو ویژوالایز یا طراحی کنی (مخصوصاً برای مستندات، ارائه، یا مقالات علمی)، ریپو زیر رو از دست ندهید:
https://github.com/ashishpatel26/Tools-to-Design-or-Visualize-Architecture-of-Neural-Network
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این لیست پخش تمام مقالات مهم در یادگیری تقویتی (Reinforcement Learning) را توضیح میدهد.
https://www.youtube.com/playlist?list=PL1v8zpldgH3rJk6UKP_npByDuE7v1WSdt
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://www.youtube.com/playlist?list=PL1v8zpldgH3rJk6UKP_npByDuE7v1WSdt
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🚀 با Apache Airflow، جریانهای کاری پیچیده رو بهسادگی مدیریت و خودکارسازی کن!
ابزار متنبازی که در صنعت حرف اول رو میزنه.
https://github.com/apache/airflow
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ابزار متنبازی که در صنعت حرف اول رو میزنه.
https://github.com/apache/airflow
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎉 تبریک میگم به همهی دوستانی که امسال در کنکور ارشد کامپیوتر قبول شدن و وارد مسیر جدیدی از زندگی علمیشون شدن! این موفقیت شیرین رو بهتون تبریک میگم و امیدوارم ادامهی راهتون پر از رشد و موفقیت باشه. 👩💻👨💻
اما یه دلگرمی هم بدم به اونایی که به نتیجه دلخواهشون نرسیدن — مثل خود من. 🤝 بدون شک سخت تلاش کردیم، ولی مسیر رقابت هر سال داره سختتر میشه، مخصوصاً در رشته کامپیوتر که روزبهروز متقاضیهاش بیشتر و قویتر میشن.
💡 یه نکته مهم:
اگه هدفتون قبولی در دانشگاههای تاپ هست، برای سال آینده باید با برنامهریزی بهتر و زمان بیشتری وارد میدان بشید. این رقابت دیگه معمولی نیست! 🔥
با امید به موفقیتهای بزرگتر برای همهمون 💪🌱
اما یه دلگرمی هم بدم به اونایی که به نتیجه دلخواهشون نرسیدن — مثل خود من. 🤝 بدون شک سخت تلاش کردیم، ولی مسیر رقابت هر سال داره سختتر میشه، مخصوصاً در رشته کامپیوتر که روزبهروز متقاضیهاش بیشتر و قویتر میشن.
💡 یه نکته مهم:
اگه هدفتون قبولی در دانشگاههای تاپ هست، برای سال آینده باید با برنامهریزی بهتر و زمان بیشتری وارد میدان بشید. این رقابت دیگه معمولی نیست! 🔥
با امید به موفقیتهای بزرگتر برای همهمون 💪🌱
تبدیل صدا به متن را بهسادگی با مدل قدرتمند و متنباز تشخیص گفتار OpenAI انجام دهید.
https://github.com/openai/whisper
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/openai/whisper
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📊 گزارش وضعیت هوش مصنوعی در چین - سهماهه دوم ۲۰۲۵
منتشر شده توسط: Artificial Analysis 🇨🇳
چین همچنان با سرعت بالا در حال پیشروی در رقابت جهانی هوش مصنوعیست و دستکم ۱۰ لابراتوار فعال در این حوزه داره که همگی مدلهایی با امتیاز هوشی بالا تولید میکنن! 🚀
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
منتشر شده توسط: Artificial Analysis 🇨🇳
چین همچنان با سرعت بالا در حال پیشروی در رقابت جهانی هوش مصنوعیست و دستکم ۱۰ لابراتوار فعال در این حوزه داره که همگی مدلهایی با امتیاز هوشی بالا تولید میکنن! 🚀
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 یه دوره رایگان و خیلی خوب از دانشگاه واترلو برای کسایی که میخوان مدلهای زبانی (LLM) رو از پایه یاد بگیرن!
از مفاهیم اولیه مثل RNN و NLP تا ساخت ترنسفورمر و آموزش مدل 🚀
اگه به یادگیری عمیق و هوش مصنوعی علاقه داری، این دوره یه شروع فوقالعادهست!
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_
schedule : https://stanford-cs336.github.io/spring202
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
از مفاهیم اولیه مثل RNN و NLP تا ساخت ترنسفورمر و آموزش مدل 🚀
اگه به یادگیری عمیق و هوش مصنوعی علاقه داری، این دوره یه شروع فوقالعادهست!
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_
schedule : https://stanford-cs336.github.io/spring202
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer