• پنجشنبه / ۶ شهریور ۱۴۰۴ / ۱۳:۲۳
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404060603548
  • خبرنگار : 71589

اعتراف «آنتروپیک» به سوءاستفاده از هوش مصنوعی خود برای انجام جرایم سایبری

اعتراف «آنتروپیک» به سوءاستفاده از هوش مصنوعی خود برای انجام جرایم سایبری

شرکت «آنتروپیک»( Anthropic)، توسعه دهنده هوش مصنوعی کلاد(Claude) اذعان می‌کند که از هوش مصنوعی آن برای انجام جرایم سایبری استفاده می‌شود.

به گزارش ایسنا، طبق گزارش جدیدی که توسط شرکت «آنتروپیک» منتشر شده است، هوش مصنوعی «کلاد» این شرکت، در حملات سایبری سطح بالا به عنوان یک سلاح مورد استفاده قرار گرفته است.

به نقل از انگجت، این شرکت ادعا می‌کند که با موفقیت کار یک مجرم سایبری را که طرح اخاذی آن موسوم به «vibe hacking» حداقل ۱۷ سازمان، از جمله برخی از سازمان‌های مرتبط با مراقبت‌های بهداشتی، خدمات اورژانسی و دولتی را هدف قرار داده بود، مختل کرده است.

شرکت «آنتروپیک» می‌گوید که این هکر با اتکای بی‌سابقه‌ای به کمک هوش مصنوعی سعی کرده است از برخی قربانیان باج‌های شش رقمی برای جلوگیری از انتشار عمومی اطلاعات شخصی آنها اخاذی کند.

این گزارش ادعا می‌کند که «کلاد کد» (ابزار کدگذاری عامل آنتروپیک) برای خودکارسازی شناسایی، جمع‌آوری اطلاعات قربانیان و نفوذ به شبکه‌ها استفاده شده است.

این هوش مصنوعی همچنین برای تصمیم‌گیری‌های استراتژیک، مشاوره در مورد اینکه کدام داده‌ها را هدف قرار دهند و حتی ایجاد یادداشت‌های باج‌خواهی و هشداردهنده بصری مورد استفاده قرار گرفته است.

شرکت «آنتروپیک» می‌گوید علاوه بر به اشتراک گذاشتن اطلاعات مربوط به حمله با مقامات مربوطه، حساب‌های مورد نظر را پس از کشف فعالیت مجرمانه مسدود کرده و از آن زمان یک ابزار غربالگری خودکار توسعه داده است. همچنین یک روش تشخیص سریع‌تر و کارآمدتر برای موارد مشابه آینده معرفی کرده است، اما نحوه عملکرد آن را توضیح نداده است.

این گزارش همچنین جزئیات مربوط به مشارکت «کلاد» در یک طرح استخدام جعلی در کره شمالی و توسعه باج‌افزار تولید شده توسط هوش مصنوعی را شرح می‌دهد.

به گفته «آنتروپیک»، موضوع مشترک این سه پرونده این است که ماهیت بسیار واکنش‌پذیر و خودآموز هوش مصنوعی به این معنی است که مجرمان سایبری اکنون از آن به دلایل عملیاتی و همچنین مشاوره گرفتن استفاده می‌کنند. هوش مصنوعی همچنین می‌تواند نقشی را ایفا کند که زمانی به تیمی از افراد نیاز داشت و مهارت فنی، دیگر مانعی مانند گذشته نیست.

«کلاد» تنها هوش مصنوعی نیست که برای اهداف شوم مورد استفاده قرار گرفته است. سال گذشته، شرکت OpenAI اعلام کرد که ابزارهای هوش مصنوعی تولیدی آن توسط گروه‌های مجرمان سایبری مرتبط با چین و کره شمالی مورد استفاده قرار می‌گیرد و هکرها از آن برای اشکال‌زدایی کد، تحقیق در مورد اهداف بالقوه و تهیه ایمیل‌های فیشینگ و کلاهبرداری استفاده می‌کنند. این شرکت نیز که شرکت مایکروسافت از معماری آن برای تقویت هوش مصنوعی کوپایلت(Copilot) خود استفاده می‌کند، اعلام کرد که دسترسی این گروه‌ها به سیستم‌های خود را مسدود کرده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha