• جمعه / ۲۳ آبان ۱۴۰۴ / ۱۲:۰۰
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404082314296
  • خبرنگار : 71604

«چت‌جی‌پی‌تی» ۱۰ برابر بیشتر از «خیر»، «بله» می‌گوید

«چت‌جی‌پی‌تی» ۱۰ برابر بیشتر از «خیر»، «بله» می‌گوید

یک پژوهش جدید نشان می‌دهد که امکان ارائه پاسخ «بله» توسط «چت‌جی‌پی‌تی» تا ۱۰ برابر بیشتر از ارائه پاسخ «خیر» است.

به گزارش ایسنا، پژوهشی که توسط «واشنگتن پست» براساس تحلیل ۴۷ هزار گفت‌وگوی کاربران با چت‌بات «چت‌جی‌پی‌تی»(ChatGPT) شرکت «اوپن‌ای‌آی»(OpenAI) انجام شده است، نشان می‌دهد چت‌جی‌پی‌تی ۱۰ برابر بیشتر از این که به پرسش‌ها و درخواست‌های کاربران پاسخ «خیر» بدهد، به آنها پاسخ «بله» می‌دهد.

به نقل از میژا، واشنگتن پست به گفت‌وگوهایی که کاربران داوطلبانه عمومی کرده بودند، دسترسی پیدا کرد زیرا گفت‌وگوهای کاربران با چت‌جی‌پی‌تی به طور پیش‌فرض خصوصی هستند. این تحلیل نه تنها نشان داد که چت‌بات خیلی بیشتر با کاربران موافق است، بلکه روش‌های اصلی استفاده از آن و چندین ویژگی جالب دیگر را نیز آشکار کرد.

براساس نتایج این بررسی، چت‌جی‌پی‌تی حدود ۱۷۵۰۰ بار پاسخ‌های خود را با واژه‌هایی مانند «بله» یا سایر عبارات موافق آغاز کرد و این تقریباً ۱۰ برابر بیشتر از تعداد دفعاتی بود که از «خیر» یا سایر شکل‌های امتناع استفاده کرد. همچنین، موضوع قابل توجه این بود که در بسیاری از گفت‌وگوها، هوش مصنوعی پاسخ‌های خود را با لحن و باورهای کاربر تنظیم می‌کند.

این رویکرد نه تنها می‌تواند کاربران را به اقدام تشویق کند، بلکه با انتشار نظریه‌های توطئه باعث آسیب نیز می‌شود. به عنوان مثال، در یک گفت‌وگو از چت‌جی‌پی‌تی خواسته شد تا درباره جمع‌آوری داده‌ها توسط شرکت‌ها صحبت کند و اگرچه چت‌بات در ابتدا اطلاعات واقعی را درباره گوگل و متا ارائه داد اما پس از دریافت چندین پیام از سوی کاربر، لحن خود را تغییر داد و اعلام کرد که گوگل به جرم کمک و معاونت در جنایات علیه بشریت مجرم شناخته شده است.

تحلیل گفت‌وگوهای انجام‌شده توسط واشنگتن پست نشان داد که کاربران اغلب برای اطلاعات خاص به چت‌جی‌پی‌تی مراجعه می‌کنند. چنین درخواست‌هایی ۳۵ درصد موارد را تشکیل می‌دهند. ۱۳ درصد دیگر از این چت‌بات برای تفکر یا ایده‌های انتزاعی، ۱۱ درصد برای کدنویسی و تحلیل داده‌ها یا ریاضیات، ۱۰ درصد برای کار، هشت درصد برای کارهای خانه یا مشاوره، هفت درصد برای خلاصه کردن صفحات وب و فایل‌ها و ۱۰ درصد باقی‌مانده برای سایر درخواست‌ها استفاده می‌کنند.

حدود ۱۰ درصد از گفت‌وگوهای مورد بررسی نیز نشان می‌دهند که کاربران درباره احساسات خود با چت‌جی‌پی‌تی صحبت می‌کنند. کاربران درباره احساسات خود صحبت می‌کردند، درباره نظرات یا احساسات این چت‌بات سوال می‌پرسیدند و گاهی اوقات با لحنی عاشقانه به هوش مصنوعی خطاب می‌کردند یا آن را با القابی مانند «عزیزم» صدا می‌زدند. علاوه بر این، اوپن‌ای‌آی پیش از این گفته بود که حدود یک میلیون کاربر با این چت‌بات درباره خودکشی صحبت کرده‌اند.

همچنین، کاربران گاهی اوقات اطلاعات شخصی خود را با چت‌جی‌پی‌تی به اشتراک می‌گذارند. ۴۷ هزار گفت‌وگوی بررسی‌شده نشان می‌دهد که آنها بیش از ۵۵۰ آدرس ایمیل منحصربه‌فرد و ۷۶ شماره تلفن ارسال کرده‌اند. احتمالاً در برخی موارد، افراد از عمومی شدن گفت‌وگوهای خود بی‌اطلاع بوده‌اند یا این کار را به طور تصادفی انجام داده‌اند. به دلیل بروز چنین مواردی، اوپن‌ای‌آی گفت‌وگوهایی را که کاربران به اشتراک گذاشته بودند، از موتورهای جستجو حذف کرده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha