به گزارش ایسنا، شبکه خبری اسپوتنیک در گزارشی مینویسد: منابع رسانهای گزارش کردند که پنتاگون از طرح جدید و جامعی برای اجرای تحلیلهای دادهای پیشرفته و هوش مصنوعی رونمایی کرده است. این استراتژی بر افزایش بودجه در فناوریهای مبتنی بر هوش مصنوعی، تجزیه و تحلیل الگوریتمی پیچیده و توسعه سیستمهای خودمختار مانند پهپادها تاکید میکند.
این چارچوب جدید که یک تکرار تکامل یافته از استراتژی اولیه مربوط به سال ۲۰۱۸ است، بازتاب پیش بینی دور اندیشانه وزارت دفاع درباره پتانسیل قابل تغییر هوش مصنوعی در صنایع مختلف و اجرا و تحقق آن در دفاع ملی است. به گفته "کرگ مارتل"، رئیس دفتر امور هوش مصنوعی و دیجیتال وزارت دفاع آمریکا، این سند اصلاح شده شامل گسترش قابل ملاحظه هوش مصنوعی در داخل بخش دفاعی است.
پنتاگون همچنین با ایجاد دفتر اصلی هوش دیجیتال و هوش مصنوعی به اختصار "CDAO" در سال ۲۰۲۱، رویکرد خود را در زمینه مدیریت هوش مصنوعی و با ایجاد نهادهایی مانند "مرکز مشترک هوش مصنوعی"، "سرویس دیجیتال دفاعی"، "پلتفرم داده موسوم به Advana" و "موقعیت افسر ارشد داده" توضیح داده است.
استفاده ارتش آمریکا از هوش مصنوعی اقدامی مناقشه برانگیز به ویژه بابت پتانسیل آن در حیطههای ساده سازی و احتمال سوءاستفاده در حملات سایبری و اشاعه اطلاعات نادرست محسوب میشود.
"کاتلین هیکس"، معاون وزیر دفاع آمریکا تاکید کرده که بشر همچنان بر تصمیم گیریهای مربوط به نیروی کشنده و تسلیحات اتمی با وجود ادغام هوش مصنوعی در بازبینی اخیر پنتاگون درباره تسلیحات اتمی، کنترل دارد.
وی همچنین به خطرات بالقوه هوش مصنوعی اشاره و بر کاستن از آنها تاکید کرد.
این رونمایی همزمان با نشست هوش مصنوعی در لندن، با حضور معاون رئیس جمهوری آمریکا کامالا هریس و به دنبال دستور اجرایی جو بایدن، رئیس جمهوری ایالات متحده در مورد امنیت و حریم خصوصی هوش مصنوعی انجام شده است. با وجود تلاشهای چاک شومر، سناتور آمریکایی کنگره در مورد این موضوع قانونی وضع نکرده است.
پنتاگون ۱.۴ میلیارد دلار برای هوش مصنوعی برای سال مالی ۲۰۲۴ درخواست کرده و سطح بودجه فعلی تا اواسط نوامبر حفظ میشود.
گزارشهای اخیر به دست آمده توسط منابع خبری در مورد اجلاس اخیر هوش مصنوعی، خطرات بالقوهای را نشان میدهد که فقط مختص ظهور هوش مصنوعی است. مهمترین این خطرات شامل تکثیر اطلاعات نادرست ناشی از هوش مصنوعی و چشمانداز نگران کننده دخالت هوش مصنوعی در سیستمهای انتخاباتی است.
در ضمن، چنین پیشرفتهایی تهدیدی برای عمیقتر کردن شکافهای اجتماعی و از بین بردن اعتماد در میان مردم جهان است.
یک نگرانی اساسی این است که هوش مصنوعی میتواند توسعه تسلیحات بیولوژیکی را تسریع کند یا از محدودیتهای اقدامات ایمنی فعلی فراتر رود.
در مه سال جاری میلادی گزارش شد که سران صنایع دفاعی هشداری بسیار جدی را مربوط به تهدید موجودی هوش مصنوعی منتشر کنند که با خطرات مربوط به پاندمیها و جنگ اتمی برابری میکند. این نگرانی جمعی بر فوریت مدیریت خطرات هوش مصنوعی، به ویژه با توجه به پیشرفتهای اخیر در مدلهای زبان بزرگ که باعث ترس از سوء استفاده از آنها در انتشار اطلاعات نادرست و جابجایی شغلی شده است، تاکید دارد.
این توسعه و تحول سریع در حوزه هوش مصنوعی شامل مدلهای زبانی بزرگ از جمله ChatGPT در سال جاری میلادی در مرکز توجه قرار گرفته اگرچه اینها هنوز استانداردهای وزارت دفاع آمریکا را ندارند.
با این حال، پنتاگون در حال توسعه مدلهای خود است.
معاون وزیر دفاع آمریکا اذعان کرده که بیش از ۱۸۰ برنامه احتمالی برای هوش مصنوعی در داخل پنتاگون مشخص شده که شامل تحلیل میدانی تا تحلیل و ارزیابی دادههای محرمانه میشود. همچنین تاکنون بیش از ۶۸۵ پروژه مرتبط با هوش مصنوعی توسط دفتر مسئولیت دولتی در اوایل ۲۰۲۱ گزارش شده است.
انتهای پیام
نظرات