SSRC_BEHDASHT Telegram 1705
Forwarded from Evidence
▫️وقتی هوش مصنوعی تعیین می‌کند چه پژوهشی دیده شود

به تازگی مقاله‌ای تحت عنوان زیر در مجله Nature منتشر شده است:

AI chatbots are already biasing research — we must establish guidelines for their use now (Link)

در این مقاله آمده است که در سال‌های اخیر توجه زیادی به این شده که هوش مصنوعی چطور به پژوهشگران در نوشتن مقاله کمک می‌کند. اما کمتر به این پرداخته‌ایم که این ابزارها چگونه بر انتخاب منابع و مقالاتی که می‌خوانیم و به آن‌ها استناد می‌کنیم تأثیر می‌گذارند.

هوش مصنوعی برای پاسخ دادن به سوالات، حجم زیادی از مطالب اینترنت را جمع‌آوری می‌کند، اما در مقابل کاربران، خیلی کمتر به سایت ناشران اصلی هدایت می‌شوند. مثلاً در سال 2025 شرکت OpenAI برای اینکه فقط یک نفر را به سایت ناشر بفرستد، خودش حدود 1500 صفحه مطلب از آن ناشر را مصرف کرده بود؛ در حالی‌که قبلاً این مقدار فقط 250 صفحه بود. شرکت Anthropic حتی بیشتر از این هم پیش رفت: به ازای هر بازدیدی که به سایت ناشر می‌داد، نزدیک به 60 هزار صفحه از مطالب او را استفاده می‌کرد. حتی گوگل هم با قابلیت AI Overviews ترافیک ناشران را سه برابر کمتر کرد. این یعنی بخش بزرگی از مخاطبان، مستقیم به جواب آماده AI دسترسی پیدا می‌کنند و دیگر به سایت مقالات اصلی سر نمی‌زنند.

اما مشکل اصلی، توهم‌های هوش مصنوعی (hallucinations) نیست، بلکه سوگیری پنهان در اطلاعات واقعی است. تحقیقات نشان داده که وقتی از AI خواسته می‌شود پژوهشگرانی را به‌عنوان داور پیشنهاد کند، بیشتر افراد غربی و سفیدپوست معرفی می‌شوند و پژوهشگران آسیایی یا کمتر شناخته‌شده نادیده گرفته می‌شوند.

در زمینه‌ی معرفی مقالات هم همین اتفاق می‌افتد: بیش از 60 درصد منابعی که AI پیشنهاد می‌کند جزو 1 درصد مقالات پر استناد هستند. این یعنی Matthew effect (اثر متیو: مشهورها مشهورتر می‌شوند) به شکل افراطی تشدید می‌شود و تحقیقات تازه یا کمتر دیده‌شده پشت پرده می‌مانند.

سیاست‌های علمی تاکنون بیشتر روی اخلاق نوشتن با کمک AI متمرکز بوده‌اند (مثلاً شفافیت و اصالت متن). در حالی که تهدید اصلی در اینجاست که AI دارد تصمیم می‌گیرد چه مقالاتی دیده و استناد شوند. پژوهشگران اغلب خروجی AI را بدون سوال می‌پذیرند و این باعث می‌شود مسیرهای تحقیقاتی محدود و یک‌سویه شوند.

راهکارهای پیشنهادی نویسنده:

1. پژوهش جدی درباره عملکرد AI در محیط آکادمیک: بررسی سوگیری‌ها، شناسایی خطرهایی مثل پرامپت‌های پنهان مخرب (prompt injection).

2. آموزش پژوهشگران: یاد بگیرند که از AI به‌عنوان ابزار کمکی استفاده کنند، نه مرجع نهایی. مثلاً به‌جای پرسیدن "مقالات مهم حوزه X"، بپرسند "چه انتقادهایی به نظریه X وجود دارد؟".

3. آموزش نهادهای ارزیاب و داوران: با توجه به اینکه در پروپوزال‌های پژوهشی، روزبه‌روز از مرورهای متون تهیه‌ شده با کمک AI استفاده زیادی می‌شود، داوران باید آموزش ببینند تا نشانه‌های نفوذ AI را تشخیص دهند؛ مثل تکیه بیش‌ از حد بر چند مقاله پر استناد و نادیده گرفتن پژوهش‌های متنوع یا مخالف.

به اعتقاد نویسنده، همان‌طور که برای نوشتن با AI قوانین گذاشته‌ایم، باید برای یافتن علم با AI هم چارچوب مشخص کنیم. فرصت محدود است و سیاست‌های امروز، آینده‌ی علم را تعیین خواهد کرد.

#AI
#bias
#research


🆔 @irevidence



tgoop.com/SSRC_Behdasht/1705
Create:
Last Update:

▫️وقتی هوش مصنوعی تعیین می‌کند چه پژوهشی دیده شود

به تازگی مقاله‌ای تحت عنوان زیر در مجله Nature منتشر شده است:

AI chatbots are already biasing research — we must establish guidelines for their use now (Link)

در این مقاله آمده است که در سال‌های اخیر توجه زیادی به این شده که هوش مصنوعی چطور به پژوهشگران در نوشتن مقاله کمک می‌کند. اما کمتر به این پرداخته‌ایم که این ابزارها چگونه بر انتخاب منابع و مقالاتی که می‌خوانیم و به آن‌ها استناد می‌کنیم تأثیر می‌گذارند.

هوش مصنوعی برای پاسخ دادن به سوالات، حجم زیادی از مطالب اینترنت را جمع‌آوری می‌کند، اما در مقابل کاربران، خیلی کمتر به سایت ناشران اصلی هدایت می‌شوند. مثلاً در سال 2025 شرکت OpenAI برای اینکه فقط یک نفر را به سایت ناشر بفرستد، خودش حدود 1500 صفحه مطلب از آن ناشر را مصرف کرده بود؛ در حالی‌که قبلاً این مقدار فقط 250 صفحه بود. شرکت Anthropic حتی بیشتر از این هم پیش رفت: به ازای هر بازدیدی که به سایت ناشر می‌داد، نزدیک به 60 هزار صفحه از مطالب او را استفاده می‌کرد. حتی گوگل هم با قابلیت AI Overviews ترافیک ناشران را سه برابر کمتر کرد. این یعنی بخش بزرگی از مخاطبان، مستقیم به جواب آماده AI دسترسی پیدا می‌کنند و دیگر به سایت مقالات اصلی سر نمی‌زنند.

اما مشکل اصلی، توهم‌های هوش مصنوعی (hallucinations) نیست، بلکه سوگیری پنهان در اطلاعات واقعی است. تحقیقات نشان داده که وقتی از AI خواسته می‌شود پژوهشگرانی را به‌عنوان داور پیشنهاد کند، بیشتر افراد غربی و سفیدپوست معرفی می‌شوند و پژوهشگران آسیایی یا کمتر شناخته‌شده نادیده گرفته می‌شوند.

در زمینه‌ی معرفی مقالات هم همین اتفاق می‌افتد: بیش از 60 درصد منابعی که AI پیشنهاد می‌کند جزو 1 درصد مقالات پر استناد هستند. این یعنی Matthew effect (اثر متیو: مشهورها مشهورتر می‌شوند) به شکل افراطی تشدید می‌شود و تحقیقات تازه یا کمتر دیده‌شده پشت پرده می‌مانند.

سیاست‌های علمی تاکنون بیشتر روی اخلاق نوشتن با کمک AI متمرکز بوده‌اند (مثلاً شفافیت و اصالت متن). در حالی که تهدید اصلی در اینجاست که AI دارد تصمیم می‌گیرد چه مقالاتی دیده و استناد شوند. پژوهشگران اغلب خروجی AI را بدون سوال می‌پذیرند و این باعث می‌شود مسیرهای تحقیقاتی محدود و یک‌سویه شوند.

راهکارهای پیشنهادی نویسنده:

1. پژوهش جدی درباره عملکرد AI در محیط آکادمیک: بررسی سوگیری‌ها، شناسایی خطرهایی مثل پرامپت‌های پنهان مخرب (prompt injection).

2. آموزش پژوهشگران: یاد بگیرند که از AI به‌عنوان ابزار کمکی استفاده کنند، نه مرجع نهایی. مثلاً به‌جای پرسیدن "مقالات مهم حوزه X"، بپرسند "چه انتقادهایی به نظریه X وجود دارد؟".

3. آموزش نهادهای ارزیاب و داوران: با توجه به اینکه در پروپوزال‌های پژوهشی، روزبه‌روز از مرورهای متون تهیه‌ شده با کمک AI استفاده زیادی می‌شود، داوران باید آموزش ببینند تا نشانه‌های نفوذ AI را تشخیص دهند؛ مثل تکیه بیش‌ از حد بر چند مقاله پر استناد و نادیده گرفتن پژوهش‌های متنوع یا مخالف.

به اعتقاد نویسنده، همان‌طور که برای نوشتن با AI قوانین گذاشته‌ایم، باید برای یافتن علم با AI هم چارچوب مشخص کنیم. فرصت محدود است و سیاست‌های امروز، آینده‌ی علم را تعیین خواهد کرد.

#AI
#bias
#research


🆔 @irevidence

BY واحد بهداشت مرکز پژوهش‌های علمی و فناوری دانشجویان علوم پزشکی تهران


Share with your friend now:
tgoop.com/SSRC_Behdasht/1705

View MORE
Open in Telegram


Telegram News

Date: |

Judge Hui described Ng as inciting others to “commit a massacre” with three posts teaching people to make “toxic chlorine gas bombs,” target police stations, police quarters and the city’s metro stations. This offence was “rather serious,” the court said. The channel also called on people to turn out for illegal assemblies and listed the things that participants should bring along with them, showing prior planning was in the works for riots. The messages also incited people to hurl toxic gas bombs at police and MTR stations, he added. Write your hashtags in the language of your target audience. A vandalised bank during the 2019 protest. File photo: May James/HKFP. Select “New Channel”
from us


Telegram واحد بهداشت مرکز پژوهش‌های علمی و فناوری دانشجویان علوم پزشکی تهران
FROM American