• دوشنبه / ۲۷ مرداد ۱۴۰۴ / ۰۸:۵۶
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404052716123
  • خبرنگار : 71589

«کلود» مکالمات نگران‌کننده را قطع می‌کند

«کلود» مکالمات نگران‌کننده را قطع می‌کند

هوش مصنوعی کلود(Claude) محصول شرکت آنتروپیک(Anthropic) اکنون توانایی پایان دادن به مکالمات نگران‌کننده و اضطراب‌آور را دارد.

به گزارش ایسنا، جدیدترین ویژگی شرکت «آنتروپیک» برای مدل هوش مصنوعی «کلود» می‌تواند آغازی بر پایان دستکاری هوش مصنوعی باشد، چرا که این شرکت در پستی در وب‌سایت خود اعلام کرد که مدل‌های «Claude Opus 4» و «4.1 Claude Opus » اکنون قدرت پایان دادن به مکالمه با کاربران را دارند.

به گفته آنتروپیک، این ویژگی فقط در موارد نادر و شدید تعاملات کاربر که به طور مداوم مضر یا توهین‌آمیز هستند، استفاده خواهد شد.

به نقل از انگجت، برای روشن شدن موضوع، آنتروپیک گفت که این دو مدل «کلود» می‌توانند از مکالمات مضر، مانند درخواست‌های کاربران برای محتوای جنسی شامل افراد زیر سن قانونی و تلاش برای درخواست اطلاعاتی که امکان خشونت یا اقدامات تروریستی در مقیاس بزرگ را فراهم می‌کند، خارج شوند.

طبق گفته‌ آنتروپیک، این مدل‌ها تنها زمانی به یک مکالمه پایان می‌دهند که به عنوان آخرین راه حل، تلاش‌های متعدد برای تغییر مسیر ناموفق بوده و امید به یک تعامل سازنده از بین رفته باشد.

با این حال، آنتروپیک ادعا می‌کند که اکثر کاربران حتی هنگام صحبت در مورد موضوعات بسیار بحث‌برانگیز، شاهد قطع مکالمه توسط «کلود» نخواهند بود، زیرا این ویژگی برای «موارد بسیار حساس» در نظر گرفته شده است.

گفتنی است که در سناریوهایی که «کلود» یک چت را پایان می‌دهد، کاربران دیگر نمی‌توانند هیچ پیام جدیدی در آن مکالمه ارسال کنند، اما می‌توانند بلافاصله یک پیام جدید شروع کنند.

آنتروپیک افزود که اگر یک مکالمه پایان یابد، بر سایر چت‌ها تأثیری نخواهد گذاشت و کاربران حتی می‌توانند به عقب برگردند و پیام‌های قبلی را ویرایش یا دوباره امتحان کنند تا به مسیر مکالمه‌ دیگری هدایت شوند.

این اقدام برای آنتروپیک، بخشی از یک برنامه‌ تحقیقاتی است که ایده‌ رفاه هوش مصنوعی را مطالعه می‌کند. در حالی که ایده انسان‌انگاری مدل‌های هوش مصنوعی همچنان یک بحث مداوم است، این شرکت اعلام کرد که توانایی خروج از یک تعامل بالقوه ناراحت‌کننده، راهی کم‌هزینه برای مدیریت خطرات برای رفاه هوش مصنوعی است.

شایان ذکر است که آنتروپیک هنوز در حال آزمایش این ویژگی است و کاربران خود را تشویق می‌کند تا هنگام مواجهه با چنین سناریویی، بازخورد خود را ارائه دهند.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha