• شنبه / ۱ فروردین ۱۴۰۵ / ۱۳:۳۱
  • دسته‌بندی: پژوهش
  • کد مطلب: 1405010100030

هوش مصنوعی زیر ذره‌بین اخلاق

الزامات سه گانه تشخیص«صداقت علمی» از نگاه وزارت علوم

الزامات سه گانه تشخیص«صداقت علمی» از نگاه وزارت علوم

با افزایش استفاده از ابزارهای هوش مصنوعی در نگارش مقالات و پایان‌نامه‌های دانشگاهی، وزارت علوم بخشنامه‌ای با عنوان «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» صادر کرد؛ سندی که برای نخستین‌بار چارچوب رسمی در زمینه ملاحظات اخلاقی، حقوقی و حرفه‌ای این فناوری در محیط‌های علمی تعیین می‌کند و بر شفافیت، مسئولیت‌پذیری پژوهشگران و ممنوعیت واگذاری کامل پژوهش به ماشین تأکید دارد.

به گزارش ایسنا، همزمان با فراگیر شدن ابزارهای هوش مصنوعی در محیط‌های دانشگاهی، نحوه استفاده از این فناوری در نگارش مقاله، پایان‌نامه و رساله به یکی از محورهای اصلی سیاست‌گذاری در آموزش عالی تبدیل شده است؛ موضوعی که اکنون با ابلاغ «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» از سوی وزارت علوم، تحقیقات و فناوری وارد مرحله تدوین الزامات اخلاقی مشخص شده است. این راهنما که در امتداد توصیه‌نامه کمیته اخلاق و اسناد تکمیلی تدوین شده، تلاش دارد چارچوبی جامع برای استفاده مسئولانه، شفاف و قانونمند از هوش مصنوعی در تمامی مراحل پژوهش ارائه کند.

در این زمینه دکتر صمد نژاد ابراهیمی، مدیرکل سیاست‌گذاری و برنامه‌ریزی امور پژوهشی وزارت علوم، در گفت‌وگو با ایسنا با تأکید بر اینکه سیاست این وزارتخانه «ممنوعیت کامل» نیست، اظهار کرد: اصل بنیادین برای ما شفافیت است. استفاده از هوش مصنوعی در پژوهش ذاتاً تخلف محسوب نمی‌شود، اما پنهان‌کردن نقش آن یا واگذاری کامل مسئولیت علمی به ماشین، با موازین اخلاق پژوهش در تعارض است.

به گفته وی، به دلیل تحولات سریع این فناوری، چارچوب ابلاغی در قالب «راهنما» تنظیم شده و قابلیت بازنگری دوره‌ای دارد تا همگام با پیشرفت فناوری به‌روزرسانی شود.

الزام نخست؛ شفاف‌سازی دقیق و ثبت استفاده

در متن راهنما تصریح شده است که هرگونه استفاده از ابزارهای هوش مصنوعی ـ اعم از نگارش، ویرایش، ترجمه، ایده‌پردازی، تحلیل داده، تولید کد، مرور منابع یا حتی بهبود نمودارها و تصاویر ـ باید به‌صورت شفاف گزارش شود. پژوهشگر موظف است نقش دقیق ابزار، هدف استفاده و نحوه اعتبارسنجی خروجی را در بخش «روش‌شناسی»، «بیانیه استفاده از هوش مصنوعی» یا «تقدیر و تشکر» درج کند.

همچنین در مواردی که خروجی هوش مصنوعی مستقیماً در متن پژوهش به کار رفته یا نقش منبع اطلاعاتی دارد، ارجاع‌دهی مطابق سبک‌های استنادی معتبر (مانند APA یا MLA) الزامی است و باید نام ابزار، نسخه و تاریخ استفاده ذکر شود. راهنما تأکید می‌کند که عدم اعلام استفاده از هوش مصنوعی می‌تواند مصداق تخلف پژوهشی تلقی شود.

مرز میان استفاده مجاز و تقلب پژوهشی

در این سند، مصادیق استفاده مجاز و غیرمجاز به‌طور شفاف تفکیک شده‌اند. استفاده از ابزارهایی مانند ChatGPT برای ویرایش زبانی، اصلاح نگارش، بازنویسی تحت نظارت مؤلف، طوفان فکری اولیه، خلاصه‌سازی مقالات، تحلیل داده‌ها، تولید پیش‌نویس کدهای ساده یا بهبود کیفیت نمودارها و تصاویر، در صورتی که با نظارت و تأیید نهایی پژوهشگر همراه باشد، مجاز شناخته شده است.

در مقابل، تولید کامل مقاله یا پایان‌نامه توسط هوش مصنوعی، جعل داده یا نتایج آزمایشگاهی، ایجاد منابع و ارجاعات جعلی، تحریف متون علمی، ارائه محتوای تولیدشده توسط ماشین به‌عنوان اثر انسانی بدون ذکر نقش ابزار، یا استفاده پنهانی برای انجام تکالیف درسی، به‌صراحت ممنوع اعلام شده است. ابراهیمی در این باره تصریح می‌کند که در صورت احراز چنین مواردی، موضوع در چارچوب آیین‌نامه تخلفات پژوهشی بررسی و با متخلف برخورد خواهد شد.

انصاف علمی

یکی از محورهای مهم توصیه‌نامه، توجه به سوگیری‌های احتمالی است. در این سند آمده است که سامانه‌های هوش مصنوعی ممکن است دارای سوگیری‌های جنسیتی، قومی، سیاسی یا طبقاتی باشند و پژوهشگر موظف است خروجی این ابزارها را با نگاه نقادانه بررسی و پالایش کند. مسئولیت حذف سوگیری‌ها و تضمین بی‌طرفی علمی، بر عهده انسان باقی می‌ماند.

مالکیت فکری و قانون مقابله با تقلب

راهنما بر رعایت قوانین مالکیت فکری، قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی و منشور اخلاق پژوهش تأکید کرده است. تولید محتوای خلاقانه توسط هوش مصنوعی و انتساب آن به خود بدون ذکر مشارکت ابزار، می‌تواند مصداق نقض حقوق مالکیت فکری باشد. در این چارچوب، پژوهشگران موظف‌اند از تمامی قوانین مصوب و دستورالعمل‌های مرتبط با این حوزه تبعیت کنند.
امنیت داده و محرمانگی اطلاعات

در بخش الزامات حفاظتی، داده‌ها به چهار سطح «عمومی»، «حساس»، «محرمانه» و «سری» تقسیم شده‌اند. استفاده از داده‌های محرمانه در ابزارهای عمومی بدون مجوز صریح ممنوع است و به‌کارگیری داده‌های سری در پلتفرم‌های عمومی مطلقاً مجاز نیست. همچنین تأکید شده استفاده از ابزارهای مبتنی بر هوش مصنوعی برای داده‌های محرمانه تنها در صورت تأیید واحد فناوری اطلاعات یا کمیته تخصصی مربوطه امکان‌پذیر است.

خرید یا توسعه نرم‌افزارهای هوش مصنوعی نیز باید پس از ارزیابی امنیتی و حقوقی و از طریق مراجع ذی‌صلاح مؤسسه انجام شود تا از رعایت قوانین حریم خصوصی اطمینان حاصل شود.

تصمیم‌گیری‌های حساس آموزشی و پژوهشی

راهنما استفاده از هوش مصنوعی در تصمیم‌گیری‌های حساس مانند پذیرش دانشجو، ارزیابی عملکرد اساتید یا رسیدگی‌های انضباطی را بدون ارزیابی دقیق اثرات و دریافت تأییدیه رسمی، مجاز نمی‌داند. در عین حال تأکید شده این ابزارها می‌توانند برای حمایت از دانشجویان دارای نیازهای خاص یا زبان‌های متفاوت به کار گرفته شوند، مشروط بر آنکه به تشدید تبعیض یا نابرابری منجر نشوند.

سیاست‌های داوری و نشر علمی

در بخش دیگری از سند، به سیاست ناشران معتبر بین‌المللی اشاره شده است. بر این اساس، داوران مجاز نیستند تصمیم نهایی داوری را به هوش مصنوعی واگذار کنند و مسئولیت کامل تحلیل و قضاوت علمی با انسان است. همچنین بارگذاری مقالات محرمانه در پلتفرم‌های شخص ثالث برای تحلیل یا خلاصه‌سازی ممنوع اعلام شده است. ویراستاران علمی نیز در صورت استفاده از ابزارهای هوش مصنوعی برای بررسی اولیه یا ویرایش زبانی، موظف به شفاف‌سازی هستند.

ملاحظات محیط‌زیستی

راهنما حتی به بُعد محیط‌زیستی فناوری نیز توجه کرده و توصیه کرده است کاربران در صورت امکان از مدل‌های کوچک‌تر و کم‌مصرف‌تر برای وظایف ساده استفاده کنند و اثرات انرژی‌بر مدل‌های بزرگ را مدنظر داشته باشند.

نظارت، خوداظهاری و حق دفاع

برای اجرای این الزامات، تشکیل کمیته‌های تخصصی هوش مصنوعی ذیل کارگروه‌های اخلاق در پژوهش پیش‌بینی شده است. تدوین فرم‌های خوداظهاری برای اعلام میزان استفاده از هوش مصنوعی، بهره‌گیری از نرم‌افزارهای تشخیص متون تولیدشده توسط ماشین، ایجاد سامانه‌های رصد و بازنگری دوره‌ای سیاست‌ها از جمله سازوکارهای نظارتی اعلام‌شده است.
با این حال، در متن راهنما تصریح شده که خروجی ابزارهای تشخیص به تنهایی مبنای قطعی اثبات تخلف نیست و کمیته‌های رسیدگی موظف‌اند تمامی شواهد را بررسی کرده و فرصت دفاع کافی برای دانشجو یا عضو هیأت علمی فراهم کنند. تصمیم نهایی باید مبتنی بر مجموعه‌ای از قرائن و بررسی انسانی باشد.

به گزارش ایسنا، الزامات فوق نشان می‌دهد سیاست‌گذار آموزش عالی در پی ترسیم مدلی از «استفاده مسئولانه» از هوش مصنوعی است؛ مدلی که در آن فناوری به‌عنوان ابزار کمکی پذیرفته می‌شود، اما صداقت علمی، شفافیت، رعایت مالکیت فکری، حفظ محرمانگی و مسئولیت‌پذیری فردی همچنان اصول خدشه‌ناپذیر باقی می‌مانند.

انتهای پیام