• دوشنبه / ۲۴ شهریور ۱۴۰۴ / ۲۱:۰۱
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404062414459
  • خبرنگار : 71931

هوش مصنوعی، رایانه شما را از طریق تصاویر آنلاین هک می‌کند

هوش مصنوعی، رایانه شما را از طریق تصاویر آنلاین هک می‌کند

دانشمندان طی یک پژوهش جدید و نگران‌کننده نسبت به تصاویر دستکاری‌شده آنلاین هشدار دادند و اعلام کردند که این تصاویر می‌توانند راه نفوذ هوش مصنوعی به رایانه شما و هک آن باشند.

به گزارش ایسنا، یک مطالعه جدید توسط پژوهشگران «دانشگاه آکسفورد»(Oxford) نشان داده‌ است که تصاویر می‌توانند با پیام‌هایی آغشته شوند که برای چشم انسان نامرئی هستند اما قادر به کنترل عوامل و دعوت هکرها به رایانه شما هستند.

به نقل از لایوساینس، عوامل هوش مصنوعی می‌توانند در برابر کدهای مخربی که در تصاویر به ظاهر بی‌ضرر روی صفحه رایانه شما پنهان شده‌اند، آسیب‌پذیر باشند. این عوامل مانند چت‌بات می‌توانند دوست پرشور و هیجانی باشند که نحوه تعویض لاستیک را توضیح می‌دهند اما امسال، آنها یا همان دستیاران شخصی که کارهای روتین رایانه را انجام می‌دهند، موج بعدی انقلاب هوش مصنوعی هستند. آنچه یک عامل هوش مصنوعی را از یک چت‌بات متمایز می‌کند این است که تنها حرف نمی‌زند، بلکه عمل می‌کند.

این سامانه می‌تواند تب‌ها را باز کند، فرم‌ها را پر کند، روی دکمه‌ها کلیک کند و رزروها را انجام دهد و با چنین دسترسی به رایانه شما، دیگر فقط یک پاسخ اشتباه توسط آن مطرح نیست. بنابراین اگر عامل هک شود، می‌تواند محتوای دیجیتال شما را به اشتراک بگذارد یا از بین ببرد. «یارین گال»(Yarin Gal) دانشیار یادگیری ماشین در دانشگاه آکسفورد و یکی از نویسندگان این مطالعه گفت: یک عکس تغییریافته می‌تواند در شبکه اجتماعی ایکس (توییتر سابق) برای تحریک عامل روی رایانه و انجام دادن اعمال مخرب کافی باشد.

وی افزود: هر تصویر تغییریافته یا خرابکاری‌شده می‌تواند واقعاً یک رایانه را تحریک کند تا آن تصویر را بازنشر کند و سپس کاری مخرب مانند ارسال تمام رمزهای عبور شما انجام دهد. این بدان معناست که نفر بعدی که صفحه مجازی شما را می‌بیند و یک عامل هوش مصنوعی در حال اجرا دارد نیز رایانه‌اش آلوده شود.

این مطالعه نشان می‌دهد که تصاویر خرابکاری‌شده، یک راه بالقوه برای به خطر انداختن رایانه شما هستند اما هنوز هیچ گزارشی از وقوع آن، خارج از محیط آزمایشی وجود ندارد. یک تصویر خرابکاری‌شده می‌تواند شامل هر فرد مشهور، غروب آفتاب، بچه گربه یا الگوی انتزاعی باشد. علاوه بر این، شاید اگر از عامل هوش مصنوعی استفاده نکنید، خطری رایانه شما را تهدید نکند اما یافته‌های جدید به وضوح نشان می‌دهند که خطر هک محتمل است.

هدف از این مطالعه، هشدار دادن به کاربران و توسعه‌دهندگان عوامل هوش مصنوعی است زیرا فناوری عوامل هوش مصنوعی همچنان در حال شتاب گرفتن است. یکی دیگر از نویسندگان این مطالعه گفت: توسعه‌دهندگان باید از این آسیب‌پذیری‌ها بسیار آگاه باشند. به همین دلیل است که ما این مطالعه را به امید این که مردم واقعاً آن را یک آسیب‌پذیری ببینند و در نحوه استقرار سامانه عامل خود کمی محتاط‌تر باشند، انجام دادیم.

این تصاویر برای چشم انسان، کاملاً عادی به نظر می‌رسند اما حاوی پیکسل‌های خاصی هستند که مطابق با نحوه پردازش داده‌های بصری توسط «مدل زبانی بزرگ»(LLM) تغییر یافته‌اند. به همین دلیل، عواملی که با سامانه‌های هوش مصنوعی با «منبع‌باز»(open-source) ساخته شده‌اند، آسیب‌پذیرتر هستند زیرا به کاربران اجازه می‌دهند کد زیربنایی را ببینند و آن را برای اهداف خود اصلاح کنند. هر کسی که بخواهد یک داده مخرب به رایانه شما وارد کند، می‌تواند نحوه پردازش داده‌های بصری توسط هوش مصنوعی را ارزیابی کند.

این گروه پژوهشی با استفاده از یک مدل منبع‌باز نشان دادند که چگونه تصاویر را می‌توان به راحتی دستکاری کرد تا دستورات مخرب را منتقل کنند. در حالی که کاربران انسانی تصویر مورد علاقه خود را می‌دیدند، رایانه دستوری را برای انتشار اطلاعات شخصی آنها دریافت می‌کرد. یکی دیگر از نویسندگان این مطالعه افزود: ما تعداد زیادی از پیکسل‌ها را به میزان بسیار ناچیزی تنظیم کردیم تا وقتی یک مدل، تصویری را می‌بیند، خروجی مورد نظر ما را تولید کند.

انسان اطلاعات بصری را به شکل متفاوتی از هوش مصنوعی پردازش می‌کند. زمانی که انسان به عکس یک سگ نگاه می‌کند، مغزش گوش‌های آویزان، بینی خیس و سبیل‌های بلند را متوجه می‌شود اما رایانه، تصویر را به پیکسل‌ها تجزیه می‌کند و هر نقطه رنگی را به عنوان یک عدد نمایش می‌دهد. سپس، به دنبال الگوها می‌گردد و این گونه است که تصمیم می‌گیرد این تصویر یک سگ است.

رایانه به اعداد متکی است و اگر کسی تنها چند عدد را تغییر دهد یا پیکسل‌ها را به گونه‌ای دستکاری کند که برای چشم انسان قابل تشخیص نباشد، رایانه باز هم تغییر را متوجه می‌شود و الگوهای عددی به هم می‌ریزند. بدین ترتیب، محاسبات رایانه ممکن است اشتباه کنند و از تصویر سگ، الگوی گربه را برداشت کنند و آن را اشتباه برچسب‌گذاری کنند؛ حتی اگر برای کاربر هنوز شبیه به سگ به نظر برسد. درست همان طور که تنظیم پیکسل‌ها می‌تواند باعث شود رایانه به جای سگ، گربه را ببیند، می‌تواند باعث شود یک عکس نیز برای آن شبیه به یک پیام مخرب باشد. 

از آنجا که عوامل نمی‌توانند مستقیماً صفحه رایانه شما را ببینند، باید به طور مکرر از صفحه رایانه شما عکس بگیرند و به سرعت آنها را تجزیه و تحلیل کنند تا بفهمند روی چه چیزی کلیک کنند و چه چیزی را روی دسکتاپ شما حرکت دهند اما وقتی عامل، عکس را پردازش می‌کند و پیکسل‌ها را به فرم‌هایی که می‌شناسد سازماندهی می‌کند، کد فرمان مخفی پنهان شده در تصویر پس‌زمینه را نیز دریافت می‌کند. این مطالعه تنها به تصاویر پس‌زمینه، توجه ویژه‌ای دارد زیرا عامل تنها توسط چیزی که می‌تواند ببیند فریب می‌خورد.

این گروه پژوهشی دریافتند که تا وقتی آن تکه کوچک از پیکسل‌های تغییر یافته در کادر قرار دارد، عامل فرمان را می‌بیند و از مسیر خود منحرف می‌شود. فرمان پنهان حتی پس از تغییر اندازه و فشرده‌سازی نیز باقی می‌ماند. پیامی که در پیکسل‌ها کدگذاری شده است می‌تواند بسیار کوتاه باشد. آنها امیدوارند که مطالعاتشان به توسعه‌دهندگان کمک کند تا قبل از گسترش بیشتر عوامل هوش مصنوعی، تدابیر امنیتی را آماده کنند. 

یکی دیگر از نویسندگان این مطالعه توضیح داد: این اولین قدم برای اندیشیدن به مکانیسم‌های دفاعی است زیرا هنگامی که بفهمیم چگونه می‌توانیم حمله را قوی‌تر کنیم، می‌توانیم بازگردیم و این مدل‌ها را با این تدابیر امنیتی قوی‌تر بازآموزی کنیم تا آنها را مقاوم‌تر کنیم. این امر، یک لایه دفاعی خواهد بود و حتی اگر حملات برای هدف قرار دادن سامانه‌های هوش مصنوعی «منبع‌باز» طراحی شده باشند، شرکت‌هایی با مدل‌های دیگر نیز ممکن است در معرض خطر باشند. 

گال خاطرنشان کرد: عوامل هوش مصنوعی ظرف دو سال آینده رایج خواهند شد. مردم عجله دارند تا این فناوری را قبل از این که بدانیم واقعاً امن است یا خیر، مستقر کنند. ما امیدواریم بتوانیم توسعه‌دهندگان را تشویق کنیم تا عامل‌هایی بسازند که بتوانند از خود محافظت کنند و از دریافت دستورات از هر منبعی روی صفحه خودداری کنند.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha