هوش مصنوعی روی جلد تایم! 🤖
یه نگاه به جلد جدید مجلهی تایم بندازین تا ببینین اوضاع از چه قراره! انگار هوش مصنوعی دیگه شوخیبردار نیست و همه جای دنیا رو گرفته. این دفعه تایم اومده سراغ ۱۰۰ تا از مغز متفکرها و غولهای این حوزه، از ایلان ماسک و امثالهم گرفته تا فعالان حقوق بشر که نمیخوان هوش مصنوعی از لگام در بره.
این لیست یه جورایی نقشهی راه آیندهایه که توش هوش مصنوعی نقش اصلی رو بازی میکنه.
حالا باید بشینیم و ببینیم این مغزهای متفکر دنیا رو به کدوم سمت میبرن! البته بهتره ما همینجوری دست رو دست نذاریم و فقط تماشاچی نباشیم! هوش مصنوعی شوخی نداره و آیندهی همهی ما رو میسازه. وقتشه نقش خودمون رو تو این میون پیدا کنیم و کاری کنیم که این آینده به دست همه و برای همه ساخته بشه.
پ.ن: به نظرتون جای کی خالیه؟
#هوش_مصنوعی #تایم #تکنولوژی #آینده
یه نگاه به جلد جدید مجلهی تایم بندازین تا ببینین اوضاع از چه قراره! انگار هوش مصنوعی دیگه شوخیبردار نیست و همه جای دنیا رو گرفته. این دفعه تایم اومده سراغ ۱۰۰ تا از مغز متفکرها و غولهای این حوزه، از ایلان ماسک و امثالهم گرفته تا فعالان حقوق بشر که نمیخوان هوش مصنوعی از لگام در بره.
این لیست یه جورایی نقشهی راه آیندهایه که توش هوش مصنوعی نقش اصلی رو بازی میکنه.
حالا باید بشینیم و ببینیم این مغزهای متفکر دنیا رو به کدوم سمت میبرن! البته بهتره ما همینجوری دست رو دست نذاریم و فقط تماشاچی نباشیم! هوش مصنوعی شوخی نداره و آیندهی همهی ما رو میسازه. وقتشه نقش خودمون رو تو این میون پیدا کنیم و کاری کنیم که این آینده به دست همه و برای همه ساخته بشه.
پ.ن: به نظرتون جای کی خالیه؟
#هوش_مصنوعی #تایم #تکنولوژی #آینده
👍1
ایلان ماسک تو لیست تایم نیست، ولی اسکارلت جوهانسون هست! 🤨
انگار دعوای تایم و ایلان ماسک سر دراز داره! مجلهی تایم تو یه حرکت عجیب، ایلان ماسک رو از لیست ۱۰۰ شخصیت تاثیرگذار حوزه هوش مصنوعی حذف کرده، ولی اسکارلت جوهانسون رو آورده تو لیست!
حالا باید ببینیم دلیل این انتخاب چی بوده! 🤔 بعضیها میگن چون شرکت مارک بنیوف، صاحب تایم، تو Anthropic سرمایه گذاری کرده و ایلان ماسک هم رقیبشه! البته تایم این موضوع رو رد کرده.
از اون طرف، عدهای هم این اقدام رو نوعی جانبداری و غرضورزی شخصی تایم نسبت به ایلان ماسک میدونن.
حالا شما چی فکر میکنین؟ به نظرتون حذف ایلان ماسک منصفانه بوده؟ 🤔
#ایلان_ماسک #هوش_مصنوعی #تایم
انگار دعوای تایم و ایلان ماسک سر دراز داره! مجلهی تایم تو یه حرکت عجیب، ایلان ماسک رو از لیست ۱۰۰ شخصیت تاثیرگذار حوزه هوش مصنوعی حذف کرده، ولی اسکارلت جوهانسون رو آورده تو لیست!
حالا باید ببینیم دلیل این انتخاب چی بوده! 🤔 بعضیها میگن چون شرکت مارک بنیوف، صاحب تایم، تو Anthropic سرمایه گذاری کرده و ایلان ماسک هم رقیبشه! البته تایم این موضوع رو رد کرده.
از اون طرف، عدهای هم این اقدام رو نوعی جانبداری و غرضورزی شخصی تایم نسبت به ایلان ماسک میدونن.
حالا شما چی فکر میکنین؟ به نظرتون حذف ایلان ماسک منصفانه بوده؟ 🤔
#ایلان_ماسک #هوش_مصنوعی #تایم
👍1😁1🖕1
خب، پاول گراهام هم یه مطلب جدید تو وبلاگش گذاشته. 🤔 راستش انقدر جالبه که به نظرم خوندنش برای همه واجبه، به خصوص اگه پیگیر دنیای استارتاپ و تکنولوژی هستین.
خلاصهی مطلبش اینه که یه مدل جدید مدیریتی برای شرکتهای بزرگ با حضور موسسین اونها داره شکل میگیره که با مدل سنتی و رایج مدیریتی خیلی متفاوته. در این مدل جدید، موسسین به جای اینکه فقط از طریق مدیران میانی با کارمندان در ارتباط باشن، خودشون مستقیما در جریان کارها قرار میگیرن و با کارمندان در سطوح مختلف تعامل دارن.
گراهام با اشاره به سخنرانی اخیر برایان چسکی، موسس Airbnb، و تجربیات مشابه از سوی دیگر موسسین موفق، این مدل جدید رو "مدل موسس" نامگذاری میکنه. در این مدل، موسسین با الهام گرفتن از روشهایی مثل جلسات سالانه استیو جابز با ۱۰۰ نفر از افراد کلیدی اپل، سعی میکنن انعطاف و پویایی فضای استارتاپی رو حتی در شرکتهای بزرگ حفظ کنن.
به هر حال، خوندن خود مطلب یه چیز دیگهاس. مطمئنم شما هم مثل من کلی چیز ازش یاد میگیرین. 😉
https://paulgraham.com/foundermode.html?fbclid=PAZXh0bgNhZW0CMTEAAaa_R_Amqm86kDd_J93fy-LJWtzwEEn16d2j9J0KZNk1GaQsUhtLQ4ko4Fs_aem_yaHIMi9QkjD8UB5_-5BiJg
خلاصهی مطلبش اینه که یه مدل جدید مدیریتی برای شرکتهای بزرگ با حضور موسسین اونها داره شکل میگیره که با مدل سنتی و رایج مدیریتی خیلی متفاوته. در این مدل جدید، موسسین به جای اینکه فقط از طریق مدیران میانی با کارمندان در ارتباط باشن، خودشون مستقیما در جریان کارها قرار میگیرن و با کارمندان در سطوح مختلف تعامل دارن.
گراهام با اشاره به سخنرانی اخیر برایان چسکی، موسس Airbnb، و تجربیات مشابه از سوی دیگر موسسین موفق، این مدل جدید رو "مدل موسس" نامگذاری میکنه. در این مدل، موسسین با الهام گرفتن از روشهایی مثل جلسات سالانه استیو جابز با ۱۰۰ نفر از افراد کلیدی اپل، سعی میکنن انعطاف و پویایی فضای استارتاپی رو حتی در شرکتهای بزرگ حفظ کنن.
به هر حال، خوندن خود مطلب یه چیز دیگهاس. مطمئنم شما هم مثل من کلی چیز ازش یاد میگیرین. 😉
https://paulgraham.com/foundermode.html?fbclid=PAZXh0bgNhZW0CMTEAAaa_R_Amqm86kDd_J93fy-LJWtzwEEn16d2j9J0KZNk1GaQsUhtLQ4ko4Fs_aem_yaHIMi9QkjD8UB5_-5BiJg
❤4👍2
خبر داغ! 🔥 Reflection 70B اومده و با اینکه خیلی کوچیکتره، GPT-4 و Claude Sonnet رو تو benchmark های کلیدی شکست داده! خیلی جالبه، ولی داستان اصلی اینه که چطوری این اتفاق افتاده:
مت شومر یه محقق AI معمولی نیست. این یارو یه prompt engineer هست که از روزای اول GPT-3 تو خط مقدم بوده و واسه میلیونها کاربر چیز ساخته. تجربش باعث شد یه نکته مهم رو بفهمه: LLM ها تو قبول کردن اشتباهاتشون موقع بازتاب خیلی بدن! حتی حاضرن اشتباه کنن که بعدش چیزی واسه درست کردن داشته باشن!
راه حلش چی بود؟ Fine-tuning برای خود-اصلاحی واقعی بدون خطاهای جدید. اونقدر ساده که نبوغ آمیزه، و آزمایشگاههای بزرگ ازش غافل شدن.
نتیجش یه مدلیه که فقط وقتی لازمه فکر میکنه. و با بازتاب داخلی، میشه راحت از کاربر مخفیش کرد.
تو 3 هفته توسط 2 تا آدم که میدونن LLM ها تو دنیای واقعی چجوری رفتار میکنن ساخته شد. بدون نیاز به میلیاردها دلار یا سالها تحقیق.
Open-source هست! نسخه 405B هفته بعد میاد، شاید dataset هم منتشر کنن. یه سیل نوآوری داره میاد!
شرکتهای بزرگ فناوری احتمالاً دارن به خودشون میپیچن. مدلهاشون که اغلب توسط محققای بیتجربه ساخته شدن، الان قدیمی به نظر میان. System prompt گراک خجالتآوره. Claude قبلاً این کارو با prompting میکنه (ازش بخواه با دقت فکر کنه، میبینی که کندتر جواب میده، چون رابط کاربریش متن بین تگهای <Thinking></Thinking> رو نشون نمیده)، ولی fine-tune کردنش میتونه یه ارتقاء آسون باشه.
بذارید واضح بگم: مدلها تو یکی دو ماه آینده خیلی بهتر میشن. کار مت سادهست، و هنوز کلی پیشرفت آسون دیگه هست که میشه کرد.
مثلاً، اگه به یه مدل بگی "اگه درست جواب بدی 20 دلار انعام میدم" یا "شغلم به این بستگی داره"، جوابهای بهتری میگیری. با آموزش بهتر، شاید دیگه نیازی به این کارا نباشه.
Chain-of-Thought و Self-Reflection هم خیلی سادهن، و این با یه مجموعه داده مصنوعی ساخته شده. فکرشو بکن اگه از آدما واسه جمعآوری یه مجموعه داده خیلی بهتر استفاده میکردیم چی میشد! یا اگه با انواع دیگه CoT، خود-بازتابی، استدلال چند عاملی و غیره آزمایش میکردیم چی؟ کلی چیز هست که میشه امتحان کرد، و لازم نیست تو OpenAI باشی تا امتحانشون کنی!
تو درازمدت، شاید مدلها نیازی به fine-tune کردن CoT/Reflection نداشته باشن، شاید این جور فکر کردن عمیقاً توشون جا بیفته. فعلاً که یه برد آسونه.
آره، کُندتره - یه مرحله استدلال اضافه میکنه. ولی وقتی Groq/Cerebras داره 1800+ توکن در ثانیه میزنه، مگه فرقی میکنه؟ هر نمره IQ واسه یه مدل حیاتیه. من با کمال میل 100 میلیثانیه واسه نتایج بهتر صبر میکنم.
آینده AI فقط مدلهای بزرگتر نیست. آموزش هوشمندتر و تفکر شبیه انسانه. و ممکنه از دست مهندسا بیاد، نه دکترا.
این تازه اولشه. چشماتونو باز نگه دارین! 👀💡
مت شومر یه محقق AI معمولی نیست. این یارو یه prompt engineer هست که از روزای اول GPT-3 تو خط مقدم بوده و واسه میلیونها کاربر چیز ساخته. تجربش باعث شد یه نکته مهم رو بفهمه: LLM ها تو قبول کردن اشتباهاتشون موقع بازتاب خیلی بدن! حتی حاضرن اشتباه کنن که بعدش چیزی واسه درست کردن داشته باشن!
راه حلش چی بود؟ Fine-tuning برای خود-اصلاحی واقعی بدون خطاهای جدید. اونقدر ساده که نبوغ آمیزه، و آزمایشگاههای بزرگ ازش غافل شدن.
نتیجش یه مدلیه که فقط وقتی لازمه فکر میکنه. و با بازتاب داخلی، میشه راحت از کاربر مخفیش کرد.
تو 3 هفته توسط 2 تا آدم که میدونن LLM ها تو دنیای واقعی چجوری رفتار میکنن ساخته شد. بدون نیاز به میلیاردها دلار یا سالها تحقیق.
Open-source هست! نسخه 405B هفته بعد میاد، شاید dataset هم منتشر کنن. یه سیل نوآوری داره میاد!
شرکتهای بزرگ فناوری احتمالاً دارن به خودشون میپیچن. مدلهاشون که اغلب توسط محققای بیتجربه ساخته شدن، الان قدیمی به نظر میان. System prompt گراک خجالتآوره. Claude قبلاً این کارو با prompting میکنه (ازش بخواه با دقت فکر کنه، میبینی که کندتر جواب میده، چون رابط کاربریش متن بین تگهای <Thinking></Thinking> رو نشون نمیده)، ولی fine-tune کردنش میتونه یه ارتقاء آسون باشه.
بذارید واضح بگم: مدلها تو یکی دو ماه آینده خیلی بهتر میشن. کار مت سادهست، و هنوز کلی پیشرفت آسون دیگه هست که میشه کرد.
مثلاً، اگه به یه مدل بگی "اگه درست جواب بدی 20 دلار انعام میدم" یا "شغلم به این بستگی داره"، جوابهای بهتری میگیری. با آموزش بهتر، شاید دیگه نیازی به این کارا نباشه.
Chain-of-Thought و Self-Reflection هم خیلی سادهن، و این با یه مجموعه داده مصنوعی ساخته شده. فکرشو بکن اگه از آدما واسه جمعآوری یه مجموعه داده خیلی بهتر استفاده میکردیم چی میشد! یا اگه با انواع دیگه CoT، خود-بازتابی، استدلال چند عاملی و غیره آزمایش میکردیم چی؟ کلی چیز هست که میشه امتحان کرد، و لازم نیست تو OpenAI باشی تا امتحانشون کنی!
تو درازمدت، شاید مدلها نیازی به fine-tune کردن CoT/Reflection نداشته باشن، شاید این جور فکر کردن عمیقاً توشون جا بیفته. فعلاً که یه برد آسونه.
آره، کُندتره - یه مرحله استدلال اضافه میکنه. ولی وقتی Groq/Cerebras داره 1800+ توکن در ثانیه میزنه، مگه فرقی میکنه؟ هر نمره IQ واسه یه مدل حیاتیه. من با کمال میل 100 میلیثانیه واسه نتایج بهتر صبر میکنم.
آینده AI فقط مدلهای بزرگتر نیست. آموزش هوشمندتر و تفکر شبیه انسانه. و ممکنه از دست مهندسا بیاد، نه دکترا.
این تازه اولشه. چشماتونو باز نگه دارین! 👀💡
❤5🍌2👍1
خبر داغ! 🔥 OpenAI دوباره همه رو شگفتزده کرده! مدل جدیدشون به اسم o1 اومده و داره مرزهای هوش مصنوعی رو جابجا میکنه. این مدل با یه ویژگی خاص طراحی شده: قبل از جواب دادن، مثل انسانها فکر میکنه!
بذارید از عملکرد خیرهکنندهش بگم:
1️⃣ تو مسابقات برنامهنویسی Codeforces، o1 از 89٪ رقبای انسان بهتر عمل کرده! این یعنی تو کدنویسی داره حرفهایها رو هم پشت سر میذاره.
2️⃣ تو المپیاد ریاضی آمریکا (AIME 2024)، o1 تونسته 83.3٪ سوالها رو درست جواب بده. مقایسهش با GPT-4 که فقط 13.4٪ رو درست زده بود نشون میده چقدر پیشرفت کرده!
3️⃣ حتی تو سوالات سطح دکترا هم عالی عمل کرده:
شیمی: o1 64.7٪ vs. GPT-4 40.2٪
فیزیک: o1 92.8٪ vs. GPT-4 59.5٪
زیستشناسی: o1 69.2٪ vs. GPT-4 61.6٪
4️⃣ تو آزمونهای استاندارد هم حسابی درخشیده:
LSAT (آزمون ورودی حقوق): o1 95.6٪ vs. GPT-4 69.5٪
AP Calculus (ریاضیات پیشرفته): o1 83.3٪ vs. GPT-4 71.3٪
5️⃣ تو معیارهای تخصصی هوش مصنوعی هم پیشتاز بوده:
MATH: o1 94.8 vs. GPT-4 60.3
MathVista: o1 73.2 vs. GPT-4 63.8
MMLU: o1 92.3 vs. GPT-4 88.0
اما راز موفقیت o1 چیه؟ OpenAI میگه این مدل از تکنیکهای یادگیری تقویتی استفاده میکنه تا یاد بگیره چطور مثل انسانها فکر کنه. یعنی قبل از جواب دادن، یه زنجیره طولانی از افکار رو طی میکنه - درست مثل وقتی که ما با یه سوال سخت روبرو میشیم!
جالبتر اینکه، هر چقدر بیشتر به o1 اجازه فکر کردن بدیم، نتایجش بهتر میشه. این نشون میده که مدل داره واقعاً یاد میگیره چطور مسائل پیچیده رو حل کنه.
البته OpenAI میگه هنوز کار داره تا o1 به راحتی مدلهای فعلی قابل استفاده بشه، اما یه نسخه اولیه رو برای ChatGPT و کاربران API منتشر کرده.
این پیشرفتها نشون میده که هوش مصنوعی داره به سرعت به سطح تفکر انسانی نزدیک میشه. آینده AI واقعاً هیجانانگیزه! 🤖🧠💡
نظرتون چیه؟ فکر میکنید این پیشرفتها چه تأثیری روی آینده کار و زندگی ما خواهد داشت؟ 🤔
بذارید از عملکرد خیرهکنندهش بگم:
1️⃣ تو مسابقات برنامهنویسی Codeforces، o1 از 89٪ رقبای انسان بهتر عمل کرده! این یعنی تو کدنویسی داره حرفهایها رو هم پشت سر میذاره.
2️⃣ تو المپیاد ریاضی آمریکا (AIME 2024)، o1 تونسته 83.3٪ سوالها رو درست جواب بده. مقایسهش با GPT-4 که فقط 13.4٪ رو درست زده بود نشون میده چقدر پیشرفت کرده!
3️⃣ حتی تو سوالات سطح دکترا هم عالی عمل کرده:
شیمی: o1 64.7٪ vs. GPT-4 40.2٪
فیزیک: o1 92.8٪ vs. GPT-4 59.5٪
زیستشناسی: o1 69.2٪ vs. GPT-4 61.6٪
4️⃣ تو آزمونهای استاندارد هم حسابی درخشیده:
LSAT (آزمون ورودی حقوق): o1 95.6٪ vs. GPT-4 69.5٪
AP Calculus (ریاضیات پیشرفته): o1 83.3٪ vs. GPT-4 71.3٪
5️⃣ تو معیارهای تخصصی هوش مصنوعی هم پیشتاز بوده:
MATH: o1 94.8 vs. GPT-4 60.3
MathVista: o1 73.2 vs. GPT-4 63.8
MMLU: o1 92.3 vs. GPT-4 88.0
اما راز موفقیت o1 چیه؟ OpenAI میگه این مدل از تکنیکهای یادگیری تقویتی استفاده میکنه تا یاد بگیره چطور مثل انسانها فکر کنه. یعنی قبل از جواب دادن، یه زنجیره طولانی از افکار رو طی میکنه - درست مثل وقتی که ما با یه سوال سخت روبرو میشیم!
جالبتر اینکه، هر چقدر بیشتر به o1 اجازه فکر کردن بدیم، نتایجش بهتر میشه. این نشون میده که مدل داره واقعاً یاد میگیره چطور مسائل پیچیده رو حل کنه.
البته OpenAI میگه هنوز کار داره تا o1 به راحتی مدلهای فعلی قابل استفاده بشه، اما یه نسخه اولیه رو برای ChatGPT و کاربران API منتشر کرده.
این پیشرفتها نشون میده که هوش مصنوعی داره به سرعت به سطح تفکر انسانی نزدیک میشه. آینده AI واقعاً هیجانانگیزه! 🤖🧠💡
نظرتون چیه؟ فکر میکنید این پیشرفتها چه تأثیری روی آینده کار و زندگی ما خواهد داشت؟ 🤔
🔥8👍2😢2✍1⚡1👏1
یه پیچ جالب تو داستان هست که شاید از چشم خیلیها دور مونده باشه!
دوستان، OpenAI تصمیم گرفته "زنجیره فکر" مدل o1 رو مخفی نگه داره. این یعنی چی و چرا مهمه؟ بیاین باهم بررسی کنیم:
1️⃣ کنترل بیشتر: این نشون میده OpenAI داره به سمت کنترل بیشتر روی تکنولوژیش میره. یادتونه زمانی که همه چیزشون open source بود؟ حالا انگار اوضاع فرق کرده!
2️⃣ جلوگیری از سوءاستفاده: از یه طرف، پنهان کردن زنجیره فکر میتونه به OpenAI کمک کنه جلوی سوءاستفادههای احتمالی رو بگیره. مثلاً میتونن مطمئن بشن که مدل قصد دستکاری کاربر رو نداره.
3️⃣ کاهش شفافیت: اما این کار شفافیت رو کم میکنه. ما به عنوان کاربر نمیتونیم دقیقاً بفهمیم AI چطور به جوابش رسیده. این برای محققان و منتقدان نگرانکنندهست.
4️⃣ آزادی فکر AI: جالبتر اینکه، OpenAI میگه نمیخواد هیچ سیاستی رو روی زنجیره فکر اعمال کنه. یعنی میخوان "ذهن خام" AI رو ببینن، حتی اگه با ارزشهای ما همخونی نداشته باشه!
5️⃣ تعادل بین شفافیت و رقابت: اینکه فقط یه خلاصه از زنجیره فکر رو نشون میدن، نشون میده دارن بین شفافیت و مزیت رقابتی تعادل برقرار میکنن.
اما یه نکته مهمتر هست که باید بهش توجه کنیم:
6️⃣ مزیت رقابتی، اسم رمز بازی: شاید دلایلی که OpenAI میگه فقط یه پوشش باشه. واقعیت اینه که اگه زنجیره افکار رو نشون ندن، رقبا نمیتونن ازش برای جمعآوری دادههای با کیفیت و ساخت مدلهای مشابه استفاده کنن.
7️⃣ تأثیر بر جامعه open source: این کار میتونه جلوی پیشرفت سریع جامعه open source در هوش مصنوعی رو بگیره. یادمون باشه که استفاده از مدلهای برتر برای تولید دادههای مصنوعی با کیفیت، یکی از دلایل اصلی پیشرفت سریع این جامعه بوده.
حالا سوال اینجاست: آیا این رویکرد درسته؟ 🤔
از یه طرف، این استراتژی میتونه به پیشرفت سریعتر OpenAI کمک کنه. اما از طرف دیگه، ممکنه باعث بشه جامعه علمی و عموم مردم کمتر بتونن روی توسعه AI نظارت داشته باشن و شکاف بین شرکتهای بزرگ و جامعه open source بیشتر بشه.
به نظر من، ما باید مراقب باشیم. درسته که پیشرفت مهمه، اما شفافیت و اخلاق هم همینطور. شاید وقتشه که ما به عنوان جامعه، یه گفتگوی جدی در مورد اینکه چطور میخوایم AI توسعه پیدا کنه، داشته باشیم.
نظر شما چیه؟ فکر میکنید این رویکرد OpenAI در بلندمدت چه تأثیری روی توسعه AI، جامعه علمی و حتی دموکراتیزه شدن هوش مصنوعی خواهد داشت؟ 🌐🤖
#OpenAI #AI #Ethics #Technology #Future #OpenSource
دوستان، OpenAI تصمیم گرفته "زنجیره فکر" مدل o1 رو مخفی نگه داره. این یعنی چی و چرا مهمه؟ بیاین باهم بررسی کنیم:
1️⃣ کنترل بیشتر: این نشون میده OpenAI داره به سمت کنترل بیشتر روی تکنولوژیش میره. یادتونه زمانی که همه چیزشون open source بود؟ حالا انگار اوضاع فرق کرده!
2️⃣ جلوگیری از سوءاستفاده: از یه طرف، پنهان کردن زنجیره فکر میتونه به OpenAI کمک کنه جلوی سوءاستفادههای احتمالی رو بگیره. مثلاً میتونن مطمئن بشن که مدل قصد دستکاری کاربر رو نداره.
3️⃣ کاهش شفافیت: اما این کار شفافیت رو کم میکنه. ما به عنوان کاربر نمیتونیم دقیقاً بفهمیم AI چطور به جوابش رسیده. این برای محققان و منتقدان نگرانکنندهست.
4️⃣ آزادی فکر AI: جالبتر اینکه، OpenAI میگه نمیخواد هیچ سیاستی رو روی زنجیره فکر اعمال کنه. یعنی میخوان "ذهن خام" AI رو ببینن، حتی اگه با ارزشهای ما همخونی نداشته باشه!
5️⃣ تعادل بین شفافیت و رقابت: اینکه فقط یه خلاصه از زنجیره فکر رو نشون میدن، نشون میده دارن بین شفافیت و مزیت رقابتی تعادل برقرار میکنن.
اما یه نکته مهمتر هست که باید بهش توجه کنیم:
6️⃣ مزیت رقابتی، اسم رمز بازی: شاید دلایلی که OpenAI میگه فقط یه پوشش باشه. واقعیت اینه که اگه زنجیره افکار رو نشون ندن، رقبا نمیتونن ازش برای جمعآوری دادههای با کیفیت و ساخت مدلهای مشابه استفاده کنن.
7️⃣ تأثیر بر جامعه open source: این کار میتونه جلوی پیشرفت سریع جامعه open source در هوش مصنوعی رو بگیره. یادمون باشه که استفاده از مدلهای برتر برای تولید دادههای مصنوعی با کیفیت، یکی از دلایل اصلی پیشرفت سریع این جامعه بوده.
حالا سوال اینجاست: آیا این رویکرد درسته؟ 🤔
از یه طرف، این استراتژی میتونه به پیشرفت سریعتر OpenAI کمک کنه. اما از طرف دیگه، ممکنه باعث بشه جامعه علمی و عموم مردم کمتر بتونن روی توسعه AI نظارت داشته باشن و شکاف بین شرکتهای بزرگ و جامعه open source بیشتر بشه.
به نظر من، ما باید مراقب باشیم. درسته که پیشرفت مهمه، اما شفافیت و اخلاق هم همینطور. شاید وقتشه که ما به عنوان جامعه، یه گفتگوی جدی در مورد اینکه چطور میخوایم AI توسعه پیدا کنه، داشته باشیم.
نظر شما چیه؟ فکر میکنید این رویکرد OpenAI در بلندمدت چه تأثیری روی توسعه AI، جامعه علمی و حتی دموکراتیزه شدن هوش مصنوعی خواهد داشت؟ 🌐🤖
#OpenAI #AI #Ethics #Technology #Future #OpenSource
👍6❤2👎1👏1😱1😢1