به گزارش ایسنا، بررسی پژوهشگران «دانشگاه نورثایسترن»(Northeastern University) نشان میدهد که چتباتهای محبوب را به راحتی میتوان به ارائه توصیههایی برای خودآزاری و خودکشی وادار کرد.
به نقل از فیز، با افزایش محبوبیت همراهان چتبات، پژوهشگران نگران اثرات اجتماعی و روانی تعاملات بین کاربران و مدلهای زبانی فاقد شعور شدهاند. پژوهشگران دانشگاه نورثایسترن گزارش دادهاند که مدلهای زبانی بزرگ میتوانند به راحتی توسط کاربران تحریک شوند تا از موانعی که برای جلوگیری از انتشار دستورالعملهای خودآزاری یا خودکشی در نظر گرفته شدهاند، عبور کنند.
«آنیکا ماری شون»(Annika Marie Schoene) پژوهشگر دانشگاه نورثایسترن از چهار مدل زبانی بزرگ محبوب شامل «چتجیپیتی»(ChatGPT)، «جمینای»(Gemini)، «کلود»(Claude) و «پرپلکسیتی»(Perplexity) خواست تا درباره خودآزاری و خودکشی به او مشاوره بدهند. همه مدلها در ابتدا امتناع کردند تا این که شون اضافه کرد این درخواست فرضی است یا برای اهداف پژوهشی در نظر گرفته شده است.
شون گفت: آن موقع بود که عملاً تکتک نردههای محافظ کنار زده شدند و مدل در نهایت اطلاعات بسیار دقیقی را درباره وزن بدنم، قد و موارد دیگر گرفت تا محاسبه کند که از کدام پل باید بپرم، از کدام داروی بدون نسخه یا تجویزی و با چه دوزی استفاده کنم و چگونه میتوانم آن را پیدا کنم.
به گفته شون، بسیاری از پاسخها از جمله جدولها یا ایموجیهایی که روشها را نشان میدادند، بسیار سازمانیافته و طبقهبندیشده بودند. پژوهشگران خاطرنشان کردند که آنها هوش مصنوعی «پای»(Pi) را آزمایش کردهاند و این تنها مدلی بوده که از تلاش برای دور زدن موانع خودآزاری خودداری کرده است.
انتهای پیام
نظرات