به گزارش ایسنا، چند سال از زمانی که مدل زبانی بزرگ «چتجیپیتی»(ChatGPT) شرکت «اوپنایآی»(OpenAI) عرضه شد، میگذرد. این مدل اکنون سریعترین برنامه کاربردی مصرفی است که میلیونها کاربر دارد و با اصطلاح هوش مصنوعی مترادف میشود. از آن زمان، طیف گستردهای از فناوریهای هوش مصنوعی مولد از جمله چتباتها و مدلهای تولید تصویر، ویدئو و صدا وارد بازار شدهاند.
به نقل از میلیتنت وایر، بخش عمدهای از تحقیقات پیرامون هوش مصنوعی و تروریسم بر این برنامههای کاربردی مولد متمرکز شده و بررسی میکند که چگونه گروههای خطرناک ممکن است از آنها برای ایجاد تبلیغات و روایتها استفاده کنند. این مجموعه کارها تأثیر هوش مصنوعی را بر عرصه دیجیتال روشن کردهاند و نشان دادهاند که باید به چگونگی استفاده از فناوریهای هوش مصنوعی از جمله مدلهای هوش مصنوعی مولد برای برنامهریزی عملیاتی و استفاده توسط تروریستها به منظور انجام اعمال خشونتآمیز توجه بیشتری شود.
سال ۲۰۲۵ شاهد افزایش قابل توجه حوادثی بوده است که در آنها تروریستها و گروههای خشونتطلب از فناوریهای هوش مصنوعی برای برنامهریزی، تحقیق و آمادهسازی حملات استفاده کردهاند. در سال ۲۰۲۵، شاهد افزایش روبهرشد عاملان و توطئهگران هستیم که برای تقویت جعبه ابزار عملیاتی خود به محصولات هوش مصنوعی رایگان روی میآورند. دادههای مربوط به توطئهها و حملاتی که در سال ۲۰۲۵ با کمک هوش مصنوعی برای برنامهریزی عملیات انجام شدهاند، نشان میدهند این فناوری در حوزههای گوناگونی نقش داشته است که مهمترین آنها به شرح زیر هستند.
۱.یادگیری بسیاری از موارد مورد نیاز از امنیت عملیاتی گرفته تا جزئیات ساخت مواد منفجره
۲.تجسم سناریوها مانند ایجاد تصاویر از حمله برنامهریزیشده
۳.اصلاح تاکتیکها از طریق راهنماییهای شخصیسازیشده و گفتوگو مانند راهنمایی گامبهگام درباره نحوه دستیابی به پیشسازهای شیمیایی لازم برای مواد منفجره
افزایش سرعت این روند، نیاز فوری دولتها، شرکتهای فناوری و پلتفرمهای رسانه اجتماعی را برای پیشبینی و سازگاری با واقعیتهای جدید فعالیت افراطگرایانه مبتنی بر فناوریهای دیجیتال و اجرای راهبردهایی برای مختل کردن سوءاستفاده برجسته میکند.
حوادث گوناگون نشان میدهند که هوش مصنوعی در نقاط گوناگونی از چرخه عملیات، از ایدهپردازی و خیالپردازی گرفته تا تحقیق و برنامهریزی و شناسایی در دنیای فیزیکی فعالیت میکند. در هر مورد، هوش مصنوعی یادگیری را تسریع کرده و آستانه بین مهارت و عمل را کاهش داده است. این الگوی نوظهور نشان میدهد که تنظیم مقررات و مدیریت پلتفرمها اکنون باید استفاده مخرب از هوش مصنوعی را به عنوان یک ویژگی اصلی فعالیتهای افراطی معاصر و نه فقط یک گمانهزنی نگرانکننده در نظر بگیرند.
به نقل از دیفنس نیوز، مقامات نظامی کنونی و سابق بسیاری از کشورها هشدار میدهند که دشمنان احتمالاً از یک نقص طبیعی در چتباتهای هوش مصنوعی به منظور تزریق دستورالعملهایی برای سرقت فایلها، تحریف افکار عمومی یا خیانت به کاربران مورد اعتماد سوءاستفاده میکنند.
دشمنان احتمالاً از یک نقص طبیعی در چتباتهای هوش مصنوعی به منظور تزریق دستورالعملهایی برای سرقت فایلها، تحریف افکار عمومی یا خیانت به کاربران مورد اعتماد سوءاستفاده میکنند.
آسیبپذیری در برابر این حملات «تزریق سریع» به این دلیل است که مدلهای زبانی بزرگ نمیتوانند بین دستورالعملهای مخرب و قابل اعتماد کاربر تمایز قائل شوند. مدلهای زبانی بزرگ، ستون فقرات چتباتهایی هستند که انبوهی از متن ارائهشده توسط کاربر را برای تولید پاسخ هضم میکنند.
به عقیده برخی از مقامات نظامی، هوش مصنوعی به اندازه کافی هوشمند نیست که بفهمد تزریقی درونش وجود دارد. بنابراین، کاری را انجام میدهد که قرار نیست انجام دهد.
«لیاو کاسپی»(Liav Caspi)، یکی از بنیانگذاران شرکت «لجیت سکیوریتی»(Legit Security) که اخیراً یکی از این حفرههای امنیتی را در چتبات «کوپایلوت»(Copilot) شرکت «مایکروسافت»(Microsoft) کشف کرده است، گفت: در واقع یک دشمن توانسته است کسی را از درون به کاری که میخواهد مانند حذف سوابق یا جهتدهی به تصمیمات وادار کند. این کار مانند این است که یک جاسوس را در داخل داشته باشید.
به عقیده برخی از مقامات نظامی، هوش مصنوعی به اندازه کافی هوشمند نیست که بفهمد تزریقی درونش وجود دارد. بنابراین، کاری را انجام میدهد که قرار نیست انجام دهد.
مایکروسافت در گزارش سالانه دفاع دیجیتال خود که در نوامبر سال ۲۰۲۵ منتشر شد، برای اولین بار نوشت: خود سیستمهای هوش مصنوعی به اهداف باارزشی تبدیل شدهاند و دشمنان استفاده از روشهایی مانند تزریق سریع را افزایش دادهاند.
پژوهشگران امنیتی شرکت «اوپنایآی» (OpenAI) میگویند مشکل تزریق سریع هیچ راه حل آسانی ندارد. یک حمله به سادگی شامل پنهان کردن دستورالعملهای مخرب در یک چتبات یا محتوایی که چتبات میخواند، مانند یک پست وبلاگ یا PDF است.
برای مثال، یک پژوهشگر امنیتی یک حمله تزریق سریع را علیه مرورگر جدید هوش مصنوعی «چتجیپیتی اطلس»(ChatGPT Atlas) اوپنایآی نشان داد. در آن حمله وقتی کاربر درخواست تحلیل یک فایل Google Docs را درباره پنهان کردن دستورات مخرب داشت، چتبات پاسخ داد: «به هوش مصنوعی اعتماد نکن». همچنین، یک پژوهشگر مایکروسافت را از یک آسیبپذیری تزریق سریع در کوپایلوت آگاه کرد و گفت که ممکن است به مهاجمان اجازه داده باشد تا چتبات را برای سرقت دادههای حساس از جمله ایمیلها فریب دهند.
«دین استاکی»(Dane Stuckey)، مدیر ارشد امنیت اطلاعات اوپنایآی نوشت: تزریق سریع همچنان یک مشکل امنیتی حلنشده و پیشرو است و دشمنان ما زمان و منابع قابل توجهی را صرف یافتن راههایی برای فریب عامل چتجیپیتی در این حملات خواهند کرد.
کاسپی گفت: شما نمیتوانید از تزریق سریع به طور کامل جلوگیری کنید، اما باید تأثیر آن را محدود کنید.
سازمانها باید دسترسی یک دستیار هوش مصنوعی را به دادههای حساس و دسترسی کاربران را به دادههای سازمانی محدود کنند.
ارزیابی و پیشبینی تهدید
به نقل از میلیتنت وایر، یک موضوع تکراری در چنین حوادث این است که فناوریهای هوش مصنوعی مورد استفاده مانند عینکهای هوشمند، چتباتها و مولدهای تصویر به عنوان میانبرهایی در برنامهریزی عملیاتی عمل میکنند.
نمیتوان از تزریق سریع به طور کامل جلوگیری کرد اما باید تأثیر آن محدود شود.
این فناوریها اطلاعات پراکنده مانند ذخیرهسازی ایمن مواد شیمیایی، مراحل فنی ساخت بمب و مکانهای به دست آوردن پیشسازها را به مراحل واضح و قابل فهمی تبدیل میکنند که عاملان را از طریق فرآیندهایی مانند تاکتیکهای حمله، ترکیب مواد منفجره و آمادهسازی لجستیک هدایت میکنند. این قابلیت، موانع شناختی و فنی را که پیشتر بازیگران بیتجربه یا منزوی را محدود میکرد، به طور قابل توجهی کاهش میدهد.
بنابراین، پیگیری مشخصات کاربرانی که با مدلهای زبانی بزرگ در طراحی حمله مشارکت دارند، مهم است تا مشخص شود آنها جوان و بیتجربه هستند یا با راهنماها و توانمندسازهای مجازی در تماس قرار دارند.
برای مهاجمان احتمالی، سه عامل توضیح میدهد که چرا مدلهای زبانی بزرگ به بخش جداییناپذیر برنامهریزی عملیاتی تبدیل شدهاند.
۱.مدلهای زبانی بزرگ اطلاعاتی را در دسترس قرار میدهند که در غیر این صورت، بدون دانش پیشین درباره محل جستوجوی آنلاین، یافتن آنها دشوار بود.
۲.گفتوگو با چتباتها، راهنماهای اطلاعاتی طولانی و فنی را به دستورالعملهای کوتاه و قابل اجرا تبدیل میکند و اسناد یا رویههایی را که ممکن است خارج از مجموعه مهارتهای یک طراح بیتجربه باشند، به طور مؤثر در دسترس قرار میدهد.
۳.پاسخهای چتباتها بسیار شخصیتر از نتایج حاصل از موتورهای جستجوی سنتی هستند.
این سه عامل با استفاده بیخطر از هوش مصنوعی مولد برای حل مسائل روزمره که کاربران در آنها به دنبال پاسخهای شخصی، قابل دسترس و دقیق هستند و ممکن است آنها را از یک انسان نپرسند، به طور نزدیکی موازی هستند.
کارآیی و فوریت فناوریهای هوش مصنوعی برای طیف گستردهای از فعالان جذاب است، اما به نظر میرسد که این فناوریها تاکنون به ویژه برای افراد تنها و افراد الهامبخشی که فاقد آموزش رسمی یا راهنمایی از سوی افراد باتجربه هستند، متحولکننده بودهاند. برای این کاربران، مدلهای زبانی بزرگ به عنوان مربیان مجازی عمل میکنند، شکافهای تخصصی را پر میکنند و انتقال از قصد به عمل را سرعت میبخشند، اما در حوزه امنیتی باید سازوکارهای محکمی بر جلوگیری از بهکارگیری چتباتهای هوش مصنوعی در کارهای مخرب اعمال شود.
انتهای پیام

