به گزارش ایسنا، روز سهشنبه دو خبر درباره سازنده هوش مصنوعی کلود(Claude) شرکت آنتروپیک منتشر شد که وقتی با یکدیگر ترکیب شوند، مسلماً تصویری ترسناک را ترسیم میکنند.
اول اینکه طبق گزارشها، پیت هگست، وزیر دفاع ایالات متحده، شرکت آنتروپیک را تحت فشار قرار میدهد تا از حفاظتهای هوش مصنوعی خود دست بکشد و به ارتش آمریکا دسترسی نامحدود به چتبات هوش مصنوعی «کلود» بدهد.
سپس این شرکت همان روزی را که خبر هگست منتشر شد، برای کنار گذاشتن تعهد ایمنی اصلی خود انتخاب کرد.
آنتروپیک اعلام کرد که در حال اصلاح سیاست مقیاسپذیری مسئولانه(RSP) خود برای کاهش حفاظهای ایمنی است. تاکنون تعهد اصلی این شرکت توقف آموزش مدلهای جدید هوش مصنوعی بوده است، مگر اینکه بتوان دستورالعملهای ایمنی خاصی را از قبل تضمین کرد. این سیاست که موانع سختی را برای توقف توسعه ایجاد میکرد، بخش بزرگی از تلاش آنتروپیک برای کسب و کارها و مصرفکنندگان بود.
آنتروپیک نوشت: حالا پس از دو سال و نیم، ارزیابی صادقانه ما این است که برخی از بخشهای این نظریه تغییر همانطور که امیدوار بودیم پیش رفتهاند، اما برخی دیگر نه.
اکنون سیاست بهروز شده این شرکت به جای خطوط قرمز سختگیرانه، به ایمنی نسبی نزدیک میشود.
حرفهای آنتروپیک در مصاحبه با «تایم» به اندازه کافی منطقی به نظر میرسد. جرد کاپلان(Jared Kaplan)، مدیر ارشد علمی آنتروپیک به تایم گفت: ما احساس کردیم که متوقف کردن آموزش مدلهای هوش مصنوعی توسط ما واقعاً به کسی کمکی نمیکند. ما واقعاً احساس نمیکردیم که با پیشرفت سریع هوش مصنوعی، اگر رقبا به سرعت در حال پیشروی هستند، منطقی باشد که تعهدات یکجانبهای بدهیم.
میتوان این نقل قولها را به عنوان آخرین نمونه از خاکستری شدن اخلاقیات در یک استارتآپ پرحاشیه در نظر گرفت.
آخرین نسخههای «کلود»، به ویژه در کدنویسی، تحسین گستردهای را برانگیختهاند. آنتروپیک در ماه فوریه 30 میلیارد دلار سرمایهگذاری جدید جذب کرد. اکنون ارزش آن ۳۸۰ میلیارد دلار است.
منظور کاپلان از رقیب، به احتمال فراوان شرکت اوپنایآی(OpenAI) خالق ChatGPT است که در حال حاضر بیش از ۸۵۰ میلیارد دلار ارزش دارد.
آنتروپیک به جای موانع قبلی، «گزارشهای خطر» و «نقشههای راه ایمنی مرزی» جدیدی را اجرا خواهد کرد. این مدلهای افشا به گونهای طراحی شدهاند که به جای آن خطوط سخت و مبهم، شفافیت را برای عموم فراهم کنند.
آنتروپیک میگوید این تغییر متاثر از «مشکل اقدام جمعی» ناشی از چشمانداز رقابتی هوش مصنوعی و رویکرد ضد نظارتی ایالات متحده بوده است.
در سیاست مقیاسپذیری مسئولانه(RSP) جدید آنتروپیک آمده است: اگر یک توسعهدهنده هوش مصنوعی، توسعه را برای اجرای اقدامات ایمنی متوقف کند، در حالی که دیگران بدون اقدامات کاهشی قوی، آموزش و استقرار سیستمهای هوش مصنوعی را پیش ببرند، این میتواند منجر به جهانی با امنیت کمتر شود. توسعهدهندگانی که ضعیفترین محافظتها را دارند، سرعت را تعیین میکنند و توسعهدهندگان مسئول توانایی خود را برای انجام تحقیقات ایمنی و پیشبرد منافع عمومی از دست میدهند.
نه در اعلامیه آنتروپیک و نه در گزارش اختصاصی تایم، به موضوع اصلی اشارهای نشده است و آن، کمپین فشار پنتاگون است. روز سهشنبه «اکسیوس» گزارش داد که وزیر دفاع آمریکا به داریو آمودی(Dario Amodei)، مدیرعامل آنتروپیک گفته است که این شرکت تا جمعه فرصت دارد تا به ارتش دسترسی نامحدود به مدل هوش مصنوعی خود را بدهد و در غیر این صورت با مجازات روبرو خواهد شد.
طبق گزارشها، این شرکت پیشنهاد داده است که سیاستهای استفاده خود را برای پنتاگون باز کند. با این حال، اجازه نخواهد داد که از مدل آن برای نظارت گسترده بر آمریکاییها یا سلاحهایی که بدون دخالت انسان شلیک میشوند، استفاده شود.
اگر آنتروپیک کوتاه نیاید، کارشناسان میگویند بهترین گزینه، اقدام قانونی خواهد بود، اما آیا مجازاتهای پیشنهادی پنتاگون برای ترساندن یک استارتآپ سودمحور و وادار کردن آن به رعایت این قانون کافی خواهد بود؟
طبق گزارشها، تهدیدهای هگست شامل استناد به قانون تولید دفاعی است که به رئیس جمهور اختیار میدهد تا به شرکتهای خصوصی دستور دهد تا قراردادهای خاصی را به نام دفاع ملی در اولویت قرار دهند.
ارتش همچنین میتواند قرارداد خود با آنتروپیک را لغو کند و آن را به عنوان یک ریسک زنجیره تأمین تعیین کند. این امر شرکتهای دیگری را که با پنتاگون همکاری میکنند مجبور میکند تا تأیید کنند که «کلود» در گردش کار آنها گنجانده نشده است.
«کلود» تنها مدل هوش مصنوعی است که در حال حاضر برای حساسترین کارهای نظامی استفاده میشود. یک مقام دفاعی به «اکسیوس» گفت: تنها دلیلی که ما هنوز با این افراد صحبت میکنیم این است که به آنها نیاز داریم و اکنون به آنها نیاز داریم. مشکل این افراد این است که آنها خیلی خوب هستند.
طبق گزارشها، از «کلود» در عملیات ربایش «مادورو» در ونزوئلا استفاده شده است، موضوعی که گفته میشود «آمودی» با شریک خود پالانتیر(Palantir) مطرح کرده است.
گزارش «تایم» در مورد RSP جدید آنتروپیک شامل واکنشهایی از یک مدیر غیرانتفاعی با تمرکز بر خطرات هوش مصنوعی بود. کریس پینتر(Chris Painter)، مدیر METR، این تغییرات را هم قابل درک و هم شاید یک بدشانسی توصیف کرد.
وی افزود: من تأکید بر گزارشدهی شفاف خطر و نقشههای راه ایمنی قابل تأیید عمومی را دوست دارم. با این حال، او همچنین نگرانیهایی را مطرح کرد مبنی بر اینکه RSP انعطافپذیرتر میتواند منجر به اثر «جوشاندن قورباغه» شود. به عبارت دیگر، وقتی ایمنی به یک منطقه خاکستری تبدیل میشود، یک سری توجیهات به ظاهر بیپایان میتواند شرکت را به همان مسیر تاریکی که زمانی محکوم کرده بود، بکشاند.
«پینتر» گفت که RSP جدید نشان میدهد که شرکت آنتروپیک معتقد است که باید با برنامههای ایمنی خود به حالت اولویتبندی روی آورد، زیرا روشهای ارزیابی و کاهش خطر با سرعت پیشرفت قابلیتها همگام نیستند.
به گفته وی، این گواه بیشتری است که جامعه برای خطرات فاجعهبار بالقوه ناشی از هوش مصنوعی آماده نیست.
انتهای پیام


نظرات