SRC_DUMS Telegram 2160
Forwarded from MohammaD*–*souri
🔶 شفافیت در استفاده از AI در نشریات علمی

هوش مصنوعی وارد همه مراحل چرخه نشر علمی شده؛ از نوشتن و تحلیل داده‌ها تا داوری و انتخاب مقالات. اما نکته‌ای که کمتر کسی می‌داند این است که پشت پرده این تحول، بحران‌های جدی اخلاقی و فنی در جریان است.

🔍 ۱. افشای استفاده از AI؛ مرزی باریک بین صداقت و اتهام
COPE تأکید می‌کند:
اگر فقط غلط‌گیری یا بهبود زبان کرده‌اید، نیاز به افشا نیست.
ولی اگر AI در طراحی آزمایش، تحلیل داده یا حتی تنظیم استدلال‌ها نقش داشته، باید شفافیت کامل داشته باشید.
📌 برخی ژورنال‌ها به‌زودی «بخش مخصوص افشای استفاده از AI» در مقالات اضافه می‌کنند؛ یعنی همان‌طور که منابع مالی را اعلام می‌کنید، باید بگویید کجا و چطور از AI استفاده کرده‌اید.

⚖️ ۲. اجرای استانداردها؛ تهدیدی برای برابری علمی
سیاست‌های سخت‌گیرانه اگر درست اجرا نشوند، پژوهشگران کشورهای ثروتمند را تقویت می‌کنند (چون آن‌ها دسترسی به سرویس‌های گران و مشاوران حقوقی دارند) و پژوهشگران کشورهای در حال توسعه را در معرض حذف قرار می‌دهند.
📌 این یعنی آینده‌ی علم می‌تواند ناعادلانه‌تر شود، مگر اینکه استانداردها آموزشی و حمایتی باشند، نه صرفاً تنبیهی.

🏛 ۳. ناتوانی ناشران بزرگ در واکنش سریع
ناشران بزرگ به جای به‌روزرسانی منظم سیاست‌ها، بیشتر با تأخیر واکنش نشان می‌دهند.
پیشنهاد COPE: تشکیل هیئت‌های مشورتی اخلاقیِ مخصوص AI و به‌روزرسانی قوانین حداقل هر شش ماه یک‌بار.
📌 دانستن این نکته به پژوهشگرها کمک می‌کند: همیشه منتظر قوانین شفاف از ناشر نباشید؛ خودتان هم باید در مقاله توضیح دهید که چطور از AI استفاده کرده‌اید.

🛑 ۴. ابزارهای تشخیص AI؛ بیشتر یک خیال تا واقعیت
دقت پایین
مثبت کاذب زیاد (مثلاً متنی کاملاً انسانی را به اشتباه AI می‌داند)
تعصب زبانی و فرهنگی
هیچ‌گونه امکان تجدیدنظر یا شفافیت در الگوریتم‌ها وجود ندارد
📌 تصمیم‌گیری برای رد یک مقاله فقط بر اساس ابزارهای شناسایی AI، از نظر اخلاقی کاملاً مردود است.

💡 ۵. یک تغییر پارادایم؛ از «کنترل» به «مشارکت»
به گفته COPE، سیستم نشر علمی در حال حاضر پر از تناقض است:
ناشران خودشان از AI برای سرعت‌بخشی به داوری و ویرایش استفاده می‌کنند.
اما وقتی نویسنده‌ها از AI کمک می‌گیرند، متهم به تخلف می‌شوند.
📌 راهکار آینده: نگاه به AI به‌عنوان شریک در تولید علم باشد نه تهدید.

جمع‌بندی کاربردی برای پژوهشگران
آماده باشید که به‌زودی باید استفاده از AI را مثل منابع مالی افشا کنید.
به ابزارهای تشخیص AI اعتماد نکنید؛ حتی سردبیرها هم می‌دانند خطاپذیرند.
قوانین ناشران ممکن است عقب‌تر از واقعیت باشند؛ شما باید پیشرو باشید و شفافیت را رعایت کنید.
استفاده از AI تخلف نیست، پنهان کردنش تخلف است.
آینده نشر علمی به سمت همکاری انسان و ماشین پیش می‌رود؛ برنده کسی است که زودتر این واقعیت را بپذیرد.


- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
1



tgoop.com/src_dums/2160
Create:
Last Update:

🔶 شفافیت در استفاده از AI در نشریات علمی

هوش مصنوعی وارد همه مراحل چرخه نشر علمی شده؛ از نوشتن و تحلیل داده‌ها تا داوری و انتخاب مقالات. اما نکته‌ای که کمتر کسی می‌داند این است که پشت پرده این تحول، بحران‌های جدی اخلاقی و فنی در جریان است.

🔍 ۱. افشای استفاده از AI؛ مرزی باریک بین صداقت و اتهام
COPE تأکید می‌کند:
اگر فقط غلط‌گیری یا بهبود زبان کرده‌اید، نیاز به افشا نیست.
ولی اگر AI در طراحی آزمایش، تحلیل داده یا حتی تنظیم استدلال‌ها نقش داشته، باید شفافیت کامل داشته باشید.
📌 برخی ژورنال‌ها به‌زودی «بخش مخصوص افشای استفاده از AI» در مقالات اضافه می‌کنند؛ یعنی همان‌طور که منابع مالی را اعلام می‌کنید، باید بگویید کجا و چطور از AI استفاده کرده‌اید.

⚖️ ۲. اجرای استانداردها؛ تهدیدی برای برابری علمی
سیاست‌های سخت‌گیرانه اگر درست اجرا نشوند، پژوهشگران کشورهای ثروتمند را تقویت می‌کنند (چون آن‌ها دسترسی به سرویس‌های گران و مشاوران حقوقی دارند) و پژوهشگران کشورهای در حال توسعه را در معرض حذف قرار می‌دهند.
📌 این یعنی آینده‌ی علم می‌تواند ناعادلانه‌تر شود، مگر اینکه استانداردها آموزشی و حمایتی باشند، نه صرفاً تنبیهی.

🏛 ۳. ناتوانی ناشران بزرگ در واکنش سریع
ناشران بزرگ به جای به‌روزرسانی منظم سیاست‌ها، بیشتر با تأخیر واکنش نشان می‌دهند.
پیشنهاد COPE: تشکیل هیئت‌های مشورتی اخلاقیِ مخصوص AI و به‌روزرسانی قوانین حداقل هر شش ماه یک‌بار.
📌 دانستن این نکته به پژوهشگرها کمک می‌کند: همیشه منتظر قوانین شفاف از ناشر نباشید؛ خودتان هم باید در مقاله توضیح دهید که چطور از AI استفاده کرده‌اید.

🛑 ۴. ابزارهای تشخیص AI؛ بیشتر یک خیال تا واقعیت
دقت پایین
مثبت کاذب زیاد (مثلاً متنی کاملاً انسانی را به اشتباه AI می‌داند)
تعصب زبانی و فرهنگی
هیچ‌گونه امکان تجدیدنظر یا شفافیت در الگوریتم‌ها وجود ندارد
📌 تصمیم‌گیری برای رد یک مقاله فقط بر اساس ابزارهای شناسایی AI، از نظر اخلاقی کاملاً مردود است.

💡 ۵. یک تغییر پارادایم؛ از «کنترل» به «مشارکت»
به گفته COPE، سیستم نشر علمی در حال حاضر پر از تناقض است:
ناشران خودشان از AI برای سرعت‌بخشی به داوری و ویرایش استفاده می‌کنند.
اما وقتی نویسنده‌ها از AI کمک می‌گیرند، متهم به تخلف می‌شوند.
📌 راهکار آینده: نگاه به AI به‌عنوان شریک در تولید علم باشد نه تهدید.

جمع‌بندی کاربردی برای پژوهشگران
آماده باشید که به‌زودی باید استفاده از AI را مثل منابع مالی افشا کنید.
به ابزارهای تشخیص AI اعتماد نکنید؛ حتی سردبیرها هم می‌دانند خطاپذیرند.
قوانین ناشران ممکن است عقب‌تر از واقعیت باشند؛ شما باید پیشرو باشید و شفافیت را رعایت کنید.
استفاده از AI تخلف نیست، پنهان کردنش تخلف است.
آینده نشر علمی به سمت همکاری انسان و ماشین پیش می‌رود؛ برنده کسی است که زودتر این واقعیت را بپذیرد.


- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱

BY کمیته تحقیقات و فناوری دانشجویی علوم پزشکی دزفول


Share with your friend now:
tgoop.com/src_dums/2160

View MORE
Open in Telegram


Telegram News

Date: |

The public channel had more than 109,000 subscribers, Judge Hui said. Ng had the power to remove or amend the messages in the channel, but he “allowed them to exist.” Add up to 50 administrators But a Telegram statement also said: "Any requests related to political censorship or limiting human rights such as the rights to free speech or assembly are not and will not be considered." In the next window, choose the type of your channel. If you want your channel to be public, you need to develop a link for it. In the screenshot below, it’s ”/catmarketing.” If your selected link is unavailable, you’ll need to suggest another option. Telegram Android app: Open the chats list, click the menu icon and select “New Channel.”
from us


Telegram کمیته تحقیقات و فناوری دانشجویی علوم پزشکی دزفول
FROM American