به گزارش ایسنا، رامامورتی در مورد این ویدیو توضیح میدهد: این ویدیو در حوزه عمومی بود، جایی که بسیاری از مردم میتوانستند آن را ببینند و در خرید یا فروش سهام فریب بخورند، انگار که من به آنها توصیه کرده بودم.
به نقل از بیبیسی، وقتی چنین اتفاقی را میبینیم، بلافاصله شکایت میکنیم. ما به اینستاگرام و سایر مکانهایی که ویدئو در آنها منتشر شده است، میرویم تا آن را حذف کنیم. و مرتبا به بازار نامه مینویسیم و به مردم هشدار میدهیم که به ویدئوهای جعلی اعتماد نکنند.
رامامورتی اضافه میکند: ما نمیدانیم چند نفر این ویدیو را دیدهاند، فهمیدنش واقعاً دشوار است، بنابراین نمیتوانیم واقعاً قضاوت کنیم که آیا تأثیر زیادی داشته یا خیر.
آنچه ما میخواهیم، این است که اصلا هیچ تأثیری نداشته باشد. هیچکس نباید به خاطر باور به چیزی که حقیقت ندارد، ضرر کند. اما رامامورتی و بورس بمبئی تنها نیستند.
کریم توبا، مدیر اجرایی شرکت امنیت رمز عبور مستقر در ایالات متحده، لستپس (LastPass)، میگوید: آخرین دادهها نشان میدهد که طی دو سال گذشته، شاهد افزایش تقریبا ۳۰۰۰ درصدی تعداد جعلهای عمیق مورد استفاده بودهایم.
خود توبا در سال ۲۰۲۴ از جعل عمیق آسیب دید. او میگوید: یکی از کارمندان ما در اروپا یک پیام صوتی و یک پیام متنی از کسی که ادعا میکرد من هستم، دریافت کرد که فوراً از وی درخواست کمک میکرد.
توبا میگوید: این پیام در واتساپ بود که برای ما یک کانال ارتباطی نیست. همچنین، ما دستگاههای تلفن همراه شرکتی داریم و این از طریق تلفن شخصی او ارسال شده است. بنابراین این باعث شد که او فکر کند این موضوع احتمالا کمی مشکوک است.
کارمند این حادثه را به گروه امنیت سایبری لستپس گزارش داد و هیچ آسیبی ندید. شرکت مهندسی بریتانیایی Arup چندان خوش شانس نبود. در سال ۲۰۲۴، این شرکت مورد یکی از پیچیدهترین حملات جعل عمیق که تاکنون در دنیای شرکتها دیده شده است، قرار گرفت.
به گفته پلیس هنگ کنگ، یکی از کارمندان Arup که در آنجا کار میکرد، پیامی دریافت کرد که ظاهرا از طرف مدیر ارشد مالی شرکت مستقر در لندن، در مورد یک تراکنش محرمانه ارسال شده بود.
این کارمند با مدیر ارشد مالی و سایر کارکنان تماس ویدیویی برقرار کرد. بر اساس آن تماس، کارمند سپس ۲۵ میلیون دلار (۱۸.۵ میلیون پوند) از پول Arup را طبق دستورالعمل به پنج حساب بانکی مختلف منتقل کرد. بعداً مشخص شد که افراد حاضر در تماس، از جمله مدیر ارشد مالی، جعلی بودهاند.
استفانی هیر، محقق فناوری و مجری مشترک هوش مصنوعی بیبیسی، میگوید: شما هرگز نمیخواهید به سادگی با کسی تماس ویدیویی بگیرید و ۲۵ میلیون دلار منتقل کنید.
شرکتها باید اقدامات بیشتری برای ایمنسازی این نوع ارتباطات انجام دهند. این دنیای جدیدی است که اکنون در آن هستیم.
تکامل سریع هوش مصنوعی به این معنی است که این ویدیوها دائماً واقعیتر میشوند.
مت لاول، یکی از بنیانگذاران و مدیرعامل شرکت امنیت سایبری CloudGuard مستقر در بریتانیا، میگوید: ساخت جعل عمیق بسیار بسیار آسان میشود. تولید کیفیت ویدیو و صدا با مشخصات بسیار دقیق چند دقیقه طول میکشد و همچنین ارزانتر میشود.
لاول میگوید: برای مثال، برای یک حمله ساده و تک نفره، با استفاده از ابزارهای عمدتا رایگان، به ۵۰۰ تا ۱۰۰۰ دلار نیاز دارید. برای یک حمله پیچیدهتر، به چیزی بین ۵۰۰۰ تا ۱۰۰۰۰ دلار نیاز دارید.
در حالی که ویدیوهای جعل عمیق پیچیدهتر میشوند، ابزارهای مورد استفاده برای خنثی کردن آنها نیز پیچیدهتر میشوند. شرکتها اکنون میتوانند از نرمافزار تأیید هویت استفاده کنند که میتواند حالات چهره یک فرد، نحوه چرخش سر و حتی نحوه جریان خون در صورت او را ارزیابی کند تا مشخص شود که آیا واقعاً خودش است یا یک نسخه جعلی از اوست.
توبا از LastPass میگوید: این یک مسابقه است، بین اینکه چه کسی میتواند یک فناوری را به کار گیرد و چه کسی میتواند آن فناوری را در اسرع وقت خنثی کند. خوشبختانه، به نظر میرسد پول زیادی در این زمینه جریان دارد که فقط سرعت توسعه فناوریها توسط سازمانها برای شناسایی و در نهایت مسدود کردن این موارد را تسریع میکند.
مت لاول بدبینتر است. او میگوید: بردارهای حمله سریعتر از آنچه ما میتوانیم اتوماسیون دفاعی و محافظت را تسریع کنیم، شتاب میگیرند. آیا مردم به اندازه کافی سریع حرکت میکنند تا به سرعت توسعه تهدید پاسخ دهند؟ مطلقاً نه.
هیر میگوید گسترش حملات جعل عمیق به این معنی است که افراد دارای مهارت برای مبارزه با کلاهبرداران تقاضای زیادی دارند. ما در سراسر جهان کمبود متخصصان امنیت سایبری داریم و به افراد بیشتری برای ورود به این عرصه نیاز داریم.
اکنون که این نوع خطرات را داریم، با رهبران شرکتها، با مدیران عامل که جعل عمیق از آنها ساخته میشود، فکر میکنم مدیران شرکتها زمان بیشتری را نسبت به قبل با مدیران ارشد امنیت اطلاعات و تیمهای خود میگذرانند و این چیز خوبی است.
انتهای پیام


نظرات