• یکشنبه / ۵ بهمن ۱۴۰۴ / ۱۱:۰۳
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404110502155
  • خبرنگار : 71604

«چت‌جی‌پی‌تی» همه پژوهش‌های یک استاد دانشگاه را حذف کرد!

«چت‌جی‌پی‌تی» همه پژوهش‌های یک استاد دانشگاه را حذف کرد!

یک استاد دانشگاه گفت که «چت‌جی‌پی‌تی» حاصل دو سال پژوهش او را به کلی حذف کرده است.

به گزارش ایسنا، «چت‌جی‌پی‌تی»(ChatGPT) می‌تواند یک فناوری عالی باشد، اما در صورتی که ایمیل‌های زیادی به صاحبخانه خود درباره نشت سقف زده باشید و بخواهید ایمیل‌ها بیشتر بررسی شوند. همچنین، چت‌جی‌پی‌تی در تهیه یک پیش‌نویس اولیه برای نوشته‌های غیر مهم عالی عمل می‌کند و به شما امکان می‌دهد که آن را با دقت بررسی و اصلاح کنید.

به نقل از فیوچریسم، با وجود همه مزایای مذکور، چت‌جی‌پی‌تی نیز مانند همه رقبای خود با کاستی‌های فراوانی همراه است؛ از توهمات شایع گرفته تا لحن چاپلوسانه‌ای که می‌تواند به راحتی کاربران را به باورهای اشتباه سوق دهد.

به عبارت دیگر، چت‌جی‌پی‌تی دقیقاً همان فناوری نیست که کسی برای انجام کارهای مهم به آن تکیه کند و این درسی است که «مارسل بوچر»(Marcel Bucher) استاد علوم گیاهی «دانشگاه کلن»(University of Cologne) به سختی آموخت.

بوچر در مصاحبه با مجله «Nature» گفت که پس از غیر فعال کردن گزینه «رضایت داده‌ها» در چت‌جی‌پی‌تی، دو سال کار دانشگاهی با دقت ساختاریافته را از جمله درخواست‌های کمک‌هزینه، ویرایش‌های نشریه، سخنرانی‌ها و امتحانات از دست داده است.

او این ویژگی را غیر فعال کرد، زیرا می‌خواست ببیند اگر داده‌ها را در اختیار چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) قرار ندهد، همچنان به همه ویژگی‌های آن دسترسی خواهد داشت یا خیر، اما در کمال ناباوری، چت‌ها فوراً و بدون هیچ ردی ناپدید شدند. بوچر گفت: هیچ هشداری ظاهر نشد. هیچ گزینه لغوی وجود نداشت. فقط یک صفحه خالی.

این ماجرا با موجی از شماتت در شبکه‌های اجتماعی روبه‌رو شد و کاربران این پرسش را مطرح کردند که چطور بوچر دو سال را بدون هیچ گونه پشتیبانی محلی گذرانده است. برخی دیگر خشمگین شدند و از دانشگاه خواستند که او را به دلیل اتکای شدید به هوش مصنوعی برای کارهای دانشگاهی اخراج کند.

با وجود این، برخی نیز برای بوچر دلسوزی کردند. «رولند گرومز»(Roland Gromes)، هماهنگ‌کننده آموزشی «دانشگاه هایدلبرگ»(Heidelberg University) نوشت: درود بر مارسل بوچر برای انتشار داستانی درباره یک گردش کار عمیقاً ناقص و یک اشتباه احمقانه. بسیاری از دانشگاهیان معتقدند که می‌توانند مشکلات را ببینند، اما همه ما می‌توانیم ساده‌لوح باشیم و با این نوع مشکلات روبه‌رو شویم.

بوچر اولین کسی است که اذعان کرده چت‌جی‌پی‌تی می‌تواند اظهارات به ظاهر مطمئن، اما گاهی نادرست را تولید کند و استدلال می‌کند که هرگز قابلیت آن را با دقت واقعی برابر ندانسته است. با وجود این، او به پیوستگی و ثبات ظاهری فضای کاری تکیه کرده و از نسخه Plus چت‌جی‌پی‌تی به عنوان دستیار هر روز خود استفاده کرده است.

استفاده از هوش مصنوعی مولد در دنیای علم بسیار بحث‌برانگیز بوده است. مجله‌های علمی سرشار از مقاله‌های بی‌کیفیت هوش مصنوعی شده‌اند و روند بررسی دقیق مقاله‌ها را به یک نمایش وحشتناک تبدیل کرده‌اند. مجله‌های علمی جعلی بسیاری در حال ظهور هستند تا از کسانی که سعی در انتشار مقاله‌های هوش مصنوعی خود دارند، سوءاستفاده کنند. نتیجه این است که مقاله‌های هوش مصنوعی توسط مدل‌های هوش مصنوعی بررسی می‌شوند و آلودگی مطالب علمی را بیشتر تثبیت می‌کنند.

از سوی دیگر، دانشمندان دائماً در جریان چگونگی ارجاع به آثارشان در مقاله‌های جدید و متنوع قرار می‌گیرند، اما در نهایت متوجه می‌شوند که مطالب ارجاع‌داده‌شده کاملاً توهم بوده‌اند.

هیچ مدرکی وجود ندارد که نشان دهد بوچر به هر نحوی سعی در فروش اطلاعات نادرست هوش مصنوعی به دانشجویانش یا انتشار تحقیقات مشکوک تولیدشده توسط هوش مصنوعی داشته است. با وجود این، تجربه ناخوشایند او با این پلتفرم باید یک نشانه هشداردهنده برای دیگران باشد.

بوچر اوپن‌ای‌آی را متهم کرد که به رغم عدم تضمین اقدامات حفاظتی اولیه برای جلوگیری از ناپدید شدن فوری سال‌ها تلاش او، حق اشتراک نسخه Plus چت‌جی‌پی‌تی خود را می‌فروشد.

اوپن‌ای‌آی در بیانیه‌ای به مجله Nature توضیح داد که چت‌ها پس از حذف قابل بازیابی نیستند و ادعای بوچر مبنی بر نبود هشدار را به چالش کشید. مقامات اوپن‌ای‌آی گفتند: ما پیش از این که کاربر یک چت را به طور دائم حذف کند، یک پیام تأیید ارائه می‌دهیم.

همچنین، این شرکت به کاربران توصیه کرد که برای کارهای حرفه‌ای خود، نسخه‌های پشتیبان شخصی را تهیه کنند.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha