به گزارش ایسنا، همزمان با فراگیر شدن ابزارهای هوش مصنوعی در محیطهای دانشگاهی، نحوه استفاده از این فناوری در نگارش مقاله، پایاننامه و رساله به یکی از محورهای اصلی سیاستگذاری در آموزش عالی تبدیل شده است؛ موضوعی که اکنون با ابلاغ «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» از سوی وزارت علوم، تحقیقات و فناوری وارد مرحله تدوین الزامات اخلاقی مشخص شده است. این راهنما که در امتداد توصیهنامه کمیته اخلاق و اسناد تکمیلی تدوین شده، تلاش دارد چارچوبی جامع برای استفاده مسئولانه، شفاف و قانونمند از هوش مصنوعی در تمامی مراحل پژوهش ارائه کند.
در این زمینه دکتر صمد نژاد ابراهیمی، مدیرکل سیاستگذاری و برنامهریزی امور پژوهشی وزارت علوم، در گفتوگو با ایسنا با تأکید بر اینکه سیاست این وزارتخانه «ممنوعیت کامل» نیست، اظهار کرد: اصل بنیادین برای ما شفافیت است. استفاده از هوش مصنوعی در پژوهش ذاتاً تخلف محسوب نمیشود، اما پنهانکردن نقش آن یا واگذاری کامل مسئولیت علمی به ماشین، با موازین اخلاق پژوهش در تعارض است.
به گفته وی، به دلیل تحولات سریع این فناوری، چارچوب ابلاغی در قالب «راهنما» تنظیم شده و قابلیت بازنگری دورهای دارد تا همگام با پیشرفت فناوری بهروزرسانی شود.
الزام نخست؛ شفافسازی دقیق و ثبت استفاده
در متن راهنما تصریح شده است که هرگونه استفاده از ابزارهای هوش مصنوعی ـ اعم از نگارش، ویرایش، ترجمه، ایدهپردازی، تحلیل داده، تولید کد، مرور منابع یا حتی بهبود نمودارها و تصاویر ـ باید بهصورت شفاف گزارش شود. پژوهشگر موظف است نقش دقیق ابزار، هدف استفاده و نحوه اعتبارسنجی خروجی را در بخش «روششناسی»، «بیانیه استفاده از هوش مصنوعی» یا «تقدیر و تشکر» درج کند.
همچنین در مواردی که خروجی هوش مصنوعی مستقیماً در متن پژوهش به کار رفته یا نقش منبع اطلاعاتی دارد، ارجاعدهی مطابق سبکهای استنادی معتبر (مانند APA یا MLA) الزامی است و باید نام ابزار، نسخه و تاریخ استفاده ذکر شود. راهنما تأکید میکند که عدم اعلام استفاده از هوش مصنوعی میتواند مصداق تخلف پژوهشی تلقی شود.
مرز میان استفاده مجاز و تقلب پژوهشی
در این سند، مصادیق استفاده مجاز و غیرمجاز بهطور شفاف تفکیک شدهاند. استفاده از ابزارهایی مانند ChatGPT برای ویرایش زبانی، اصلاح نگارش، بازنویسی تحت نظارت مؤلف، طوفان فکری اولیه، خلاصهسازی مقالات، تحلیل دادهها، تولید پیشنویس کدهای ساده یا بهبود کیفیت نمودارها و تصاویر، در صورتی که با نظارت و تأیید نهایی پژوهشگر همراه باشد، مجاز شناخته شده است.
در مقابل، تولید کامل مقاله یا پایاننامه توسط هوش مصنوعی، جعل داده یا نتایج آزمایشگاهی، ایجاد منابع و ارجاعات جعلی، تحریف متون علمی، ارائه محتوای تولیدشده توسط ماشین بهعنوان اثر انسانی بدون ذکر نقش ابزار، یا استفاده پنهانی برای انجام تکالیف درسی، بهصراحت ممنوع اعلام شده است. ابراهیمی در این باره تصریح میکند که در صورت احراز چنین مواردی، موضوع در چارچوب آییننامه تخلفات پژوهشی بررسی و با متخلف برخورد خواهد شد.
انصاف علمی
یکی از محورهای مهم توصیهنامه، توجه به سوگیریهای احتمالی است. در این سند آمده است که سامانههای هوش مصنوعی ممکن است دارای سوگیریهای جنسیتی، قومی، سیاسی یا طبقاتی باشند و پژوهشگر موظف است خروجی این ابزارها را با نگاه نقادانه بررسی و پالایش کند. مسئولیت حذف سوگیریها و تضمین بیطرفی علمی، بر عهده انسان باقی میماند.
مالکیت فکری و قانون مقابله با تقلب
راهنما بر رعایت قوانین مالکیت فکری، قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی و منشور اخلاق پژوهش تأکید کرده است. تولید محتوای خلاقانه توسط هوش مصنوعی و انتساب آن به خود بدون ذکر مشارکت ابزار، میتواند مصداق نقض حقوق مالکیت فکری باشد. در این چارچوب، پژوهشگران موظفاند از تمامی قوانین مصوب و دستورالعملهای مرتبط با این حوزه تبعیت کنند.
امنیت داده و محرمانگی اطلاعات
در بخش الزامات حفاظتی، دادهها به چهار سطح «عمومی»، «حساس»، «محرمانه» و «سری» تقسیم شدهاند. استفاده از دادههای محرمانه در ابزارهای عمومی بدون مجوز صریح ممنوع است و بهکارگیری دادههای سری در پلتفرمهای عمومی مطلقاً مجاز نیست. همچنین تأکید شده استفاده از ابزارهای مبتنی بر هوش مصنوعی برای دادههای محرمانه تنها در صورت تأیید واحد فناوری اطلاعات یا کمیته تخصصی مربوطه امکانپذیر است.
خرید یا توسعه نرمافزارهای هوش مصنوعی نیز باید پس از ارزیابی امنیتی و حقوقی و از طریق مراجع ذیصلاح مؤسسه انجام شود تا از رعایت قوانین حریم خصوصی اطمینان حاصل شود.
تصمیمگیریهای حساس آموزشی و پژوهشی
راهنما استفاده از هوش مصنوعی در تصمیمگیریهای حساس مانند پذیرش دانشجو، ارزیابی عملکرد اساتید یا رسیدگیهای انضباطی را بدون ارزیابی دقیق اثرات و دریافت تأییدیه رسمی، مجاز نمیداند. در عین حال تأکید شده این ابزارها میتوانند برای حمایت از دانشجویان دارای نیازهای خاص یا زبانهای متفاوت به کار گرفته شوند، مشروط بر آنکه به تشدید تبعیض یا نابرابری منجر نشوند.
سیاستهای داوری و نشر علمی
در بخش دیگری از سند، به سیاست ناشران معتبر بینالمللی اشاره شده است. بر این اساس، داوران مجاز نیستند تصمیم نهایی داوری را به هوش مصنوعی واگذار کنند و مسئولیت کامل تحلیل و قضاوت علمی با انسان است. همچنین بارگذاری مقالات محرمانه در پلتفرمهای شخص ثالث برای تحلیل یا خلاصهسازی ممنوع اعلام شده است. ویراستاران علمی نیز در صورت استفاده از ابزارهای هوش مصنوعی برای بررسی اولیه یا ویرایش زبانی، موظف به شفافسازی هستند.
ملاحظات محیطزیستی
راهنما حتی به بُعد محیطزیستی فناوری نیز توجه کرده و توصیه کرده است کاربران در صورت امکان از مدلهای کوچکتر و کممصرفتر برای وظایف ساده استفاده کنند و اثرات انرژیبر مدلهای بزرگ را مدنظر داشته باشند.
نظارت، خوداظهاری و حق دفاع
برای اجرای این الزامات، تشکیل کمیتههای تخصصی هوش مصنوعی ذیل کارگروههای اخلاق در پژوهش پیشبینی شده است. تدوین فرمهای خوداظهاری برای اعلام میزان استفاده از هوش مصنوعی، بهرهگیری از نرمافزارهای تشخیص متون تولیدشده توسط ماشین، ایجاد سامانههای رصد و بازنگری دورهای سیاستها از جمله سازوکارهای نظارتی اعلامشده است.
با این حال، در متن راهنما تصریح شده که خروجی ابزارهای تشخیص به تنهایی مبنای قطعی اثبات تخلف نیست و کمیتههای رسیدگی موظفاند تمامی شواهد را بررسی کرده و فرصت دفاع کافی برای دانشجو یا عضو هیأت علمی فراهم کنند. تصمیم نهایی باید مبتنی بر مجموعهای از قرائن و بررسی انسانی باشد.
به گزارش ایسنا، الزامات فوق نشان میدهد سیاستگذار آموزش عالی در پی ترسیم مدلی از «استفاده مسئولانه» از هوش مصنوعی است؛ مدلی که در آن فناوری بهعنوان ابزار کمکی پذیرفته میشود، اما صداقت علمی، شفافیت، رعایت مالکیت فکری، حفظ محرمانگی و مسئولیتپذیری فردی همچنان اصول خدشهناپذیر باقی میمانند.
انتهای پیام
