به گزارش ایسنا، ترس بسیاری از افراد در جامعه تحقیقاتی این است که تحقیقات بیکیفیت یا کاملا ساختگی تولید شده توسط مدلهای زبانی بزرگ (LLM) میتواند توانایی سیستمهای کنترل کیفیت فعلی را برای تشخیص از بین ببرد و در نتیجه، کانون علمی را آلوده کند.
ماریا آنتونیاک، دانشمند رایانه در دانشگاه کلرادو بولدر، میگوید: حوزه کاری ما به گونهای در حال تغییر است که ما اصلا برای آن آماده نیستیم.
ریچارد شی، زیستشناس سلولهای بنیادی در دانشگاه فنی نانیانگ در سنگاپور، میگوید: ما در یک رقابت بین افرادی که بیپروا از هوش مصنوعی استفاده میکنند و کسانی که سعی در محدود کردن یا تشخیص آن دارند، زندگی میکنیم.
آشکارسازهای هوش مصنوعی
نگرانیها درباره میزان محتوای تولیدشده توسط هوش مصنوعی در مقالات علمی، با روندهای گستردهتر آنلاین همخوانی دارد. بر اساس تجزیه و تحلیل ۵۵ هزار صفحه وب تازه منتشر شده که توسط شرکت خصوصی Graphite در سانفرانسیسکو انجام شده است، در پایان ماه مارس، تخمین زده شد که تعداد مقالات تولید شده توسط هوش مصنوعی از مقالات نوشته شده توسط انسان بیشتر است.
هوش مصنوعی ممکن است کاربردهای مشروعی در تولید مقالات علمی داشته باشد و میتواند پیشرفت تحقیقات را تسریع کند. اما محتوای تولید شده توسط هوش مصنوعی نیز به طور بالقوه مشکلساز است، زیرا میتواند برای ایجاد مقالات جعلی یا بیکیفیت استفاده شود.
برای بررسی این موضوع، محققان به ابزارهای تشخیص هوش مصنوعی روی آوردهاند تا مقیاس این مسئله را اندازهگیری کنند. برخی از ابزارهای موجود بین متنی که صرفا با هوش مصنوعی ویرایش شده و متنی که کاملا توسط آن تولید شده است، تمایز قائل نمیشوند. این سیستمها همچنین روشهای مختلفی برای تعریف آنچه که به عنوان تولید شده توسط هوش مصنوعی محسوب میشود، دارند و میتوانند به اشتباه متن نوشته شده توسط انسان را به عنوان تولید شده توسط هوش مصنوعی علامتگذاری کنند. با این وجود، آنها میتوانند نکاتی را در مورد روندهای استفاده از هوش مصنوعی ارائه دهند.
در مطالعهای که در تاریخ ۲۷ آوریل منتشر شد، محققان از ابزاری که توسط آزمایشگاههای پنگرام در شهر نیویورک توسعه داده شده بود، برای اسکن نزدیک به ۷۰۰۰ چکیده مقاله ارسال شده به مجله Organization Science بین ماههای ژانویه سال ۲۰۲۱ تا فوریه سال ۲۰۲۶، به همراه حدود ۸۰۰۰ گزارش داوری همتا شده استفاده کردند. نویسندگان میگویند این اولین تحلیلی است که میزان کلی محتوای تولید شده توسط هوش مصنوعی را در فرآیند داوری یک مجله تحقیقاتی تخمین میزند.
این مطالعه افزایش ۴۲ درصدی ارسالها را از ماه نوامبر سال ۲۰۲۲ یعنی زمانی که چت جیپیتی به عنوان اولین مدل زبانی بزرگ در دسترس عموم قرار گرفت، گزارش کرد و دریافتند که این افزایش عمدتا توسط هوش مصنوعی هدایت شده است. نویسندگان همچنین تخمین زدند که تا ماه فوریه امسال، ارسالهایی که بیش از ۷۰ درصد متن آنها توسط هوش مصنوعی تولید شده است، در مقایسه با اعداد مشاهده شده در اوایل سال ۲۰۲۴، بیش از دو برابر شده است و بیش از ۳۰ درصد از گزارشهای داوری همتا نیز حاوی مقداری متن تولید شده توسط هوش مصنوعی بودهاند.
محققان دیگری، از جمله شی و آنتونیاک، تلاش کردهاند تا کل محتوای تحقیقاتی تولید شده توسط هوش مصنوعی را که در حال حاضر به صورت آنلاین وجود دارد، ثبت کنند که البته به دلیل حجم زیاد مقالات مربوطه کاری تقریبا غیرممکن است. او از ابزار تشخیص هوش مصنوعی پانگرام (Pangram) برای غربالگری حدود ۵۰۰۰ مقاله علوم زیست پزشکی منتشر شده در سال گذشته در مجلاتی از جمله ساینس، نیچر و سل استفاده کرد.
تحلیل او نشان داد که ۶ مقاله به عنوان مقاله کاملا نوشته شده توسط هوش مصنوعی علامتگذاری شدهاند، اما از هر هشت مقاله، یکی حاوی متنی تولید شده توسط هوش مصنوعی است.
او انتظار دارد که این نرخ در سالهای آینده افزایش یابد. او میگوید: ما در آغاز این دوران جدید هستیم. آنچه میبینیم اولین قطرات از طوفانی است که در راه است.
در یک پیشنویس دیگر که در روز سوم ژانویه منتشر شد، آنتونیاک و همکارش از دو روش تشخیص هوش مصنوعی برای غربالگری بیش از ۱۲۴ هزار نسخه خطی ارسال شده در arXiv بین سالهای ۲۰۲۰ تا ۲۰۲۵ استفاده کردند. آنها دریافتند که برای علوم رایانه، پیشنویسهای مروری حاوی متن تولید شده توسط هوش مصنوعی از حدود هفت درصد در سال ۲۰۲۳ به ۴۳ درصد در سال ۲۰۲۵ افزایش یافته است. نسخههای خطی غیر مروری در این زمینه که حاوی متن تولید شده توسط هوش مصنوعی بودند نیز در همین دوره از حدود سه درصد به ۲۳ درصد افزایش یافتند.
مطالعه آنتونیاک تمایز بین نسخههای خطی که ممکن است کاملا توسط هوش مصنوعی نوشته شده باشند و آنهایی که فقط مقداری متن تولید شده توسط هوش مصنوعی دارند را در نظر نگرفته است. او خاطرنشان میکند که همچنین هیچ قضاوتی در مورد کیفیت کار انجام نداده است. یک مسئله گستردهتر، فقدان روشهای دقیق و قابل اعتماد برای ثبت دقیق میزان تولیدات هوش مصنوعی است.
کنفرانس بزرگ هوش مصنوعی مملو از نقدهای همتا به همتا بود که کاملا توسط هوش مصنوعی نوشته شده بودند. شی میگوید: برای همگام شدن با مدلهای هوش مصنوعی که دائما در حال بهبود هستند، آشکارسازها باید پیچیدهتر شوند. او میافزاید: شما مکانیسمهای بیشتر و بیشتری خواهید داشت که افراد با استفاده از آنها سعی میکنند متن خود را انسانی جلوه دهند و از آشکارسازها فرار کنند.
در کنار آشکارسازهای هوش مصنوعی، رویکردهایی مانند «نهاننگاری» یا واترمارک میتوانند به غربالگری استفادههای فاش نشده از هوش مصنوعی در آینده کمک کنند. یک کنفرانس بزرگ هوش مصنوعی به تازگی از یک فناوری نوآورانه نهاننگاری برای شناسایی متن تولید شده توسط هوش مصنوعی در نقدهای همتا به همتا از سایر مقالات ارسال شده به جلسه استفاده کرد. این امر منجر به رد ۴۹۷ مقاله شد.
محمد حسینی که در دانشکده پزشکی فاینبرگ دانشگاه نورث وسترن در شیکاگو، ایلینوی، اخلاق و صداقت پژوهشی را مطالعه میکند، میگوید: چنین ابزارهایی در مراحل اولیه توسعه هستند و تا زمانی که آنها بتوانند ما را قادر کنند تا به راحتی بین متن تولید شده توسط هوش مصنوعی و متن بهبود یافته توسط هوش مصنوعی تمایز قائل شویم، هنوز باید نسبت به مطالعاتی که سعی در ارزیابی میزان مقالات تولید شده توسط هوش مصنوعی دارند، با دید شک و تردید برخورد کنیم.
انتهای پیام
