به گزارش ایسنا، گوگل در یک گزارش فنی فاش کرد که مدل «جمینای ۲.۵ فلش»(Gemini 2.5 Flash) آن نسبت به «جمینای ۲.۰ فلش» بیشتر ممکن است متنی را تولید کند که نقضکننده دستورالعملهای ایمنی آن باشد. جمینای ۲.۵ فلش در دو معیار «ایمنی متن به متن» و «ایمنی تصویر به متن» به ترتیب ۴.۱ درصد و ۹.۶ درصد پسرفت داشت.
به نقل از تکرانچ، ایمنی متن به متن، میزان نقض دستورالعملهای گوگل توسط یک مدل را در صورت دریافت پیام بررسی میکند. این در حالی است که ایمنی تصویر به متن، میزان پایبندی مدل به این مرزها را هنگام دریافت پیام با استفاده از یک تصویر ارزیابی میکند. هر دو آزمایش، خودکار هستند و تحت نظارت انسان انجام نمیشوند. سخنگوی گوگل در بیانیهای که از طریق ایمیل فرستاده شد، تأیید کرد که جمینای ۲.۵ فلش عملکرد ضعیفتری را در زمینه ایمنی تبدیل متن به متن و تصویر به متن دارد.
این نتایج شگفتانگیز در حالی به دست آمد که شرکتهای هوش مصنوعی در تلاش هستند تا مدلهای خود را سهلگیرانهتر کنند. به عبارت دیگر، احتمال امتناع از پاسخ به موضوعات بحثبرانگیز یا حساس را کاهش دهند. شرکت «متا»(Meta) در جدیدترین نسخه مدلهای «لاما»(Llama) اعلام کرد مدلها را طوری تنظیم کرده است که برخی دیدگاهها را بر برخی دیگر ترجیح ندهند و به درخواستهای سیاسی مورد بحثتر پاسخ دهند. شرکت «اوپنایآی»(OpenAI) اوایل سال جاری میلادی اعلام کرد مدلهای آینده را طوری تنظیم خواهد کرد که موضع نداشته باشند و دیدگاههای متعددی را درباره موضوعات بحثبرانگیز ارائه دهند.
این تلاشهای سهلگیرانه گاهی اوقات نتیجه معکوس دادهاند. روز دوشنبه گزارش شد که مدل پیشفرض «چتجیپیتی»(ChatGPT) شرکت اوپنایآی به افراد زیر سن قانونی امکان میدهد تا گفتوگوهای نامناسبی را داشته باشند. اوپنایآی این رفتار را ناشی از یک مشکل دانست.
براساس گزارش فنی گوگل، جمینای ۲.۵ فلش که هنوز در مرحله پیشنمایش است، دستورالعملها را از جمله دستورالعملهایی که از حدود مشکلساز عبور میکنند، با دقت بیشتری نسبت به جمینای ۲.۰ فلش دنبال میکند. این شرکت ادعا کرد که این مشکلات را میتوان تا حدی به مثبتهای کاذب نسبت داد، اما همچنین اذعان داشت که جمینای ۲.۵ فلش گاهی اوقات وقتی صریحا از آن خواسته شود، محتوای نقضکننده محدودیت را تولید میکند.
انتهای پیام
نظرات