جعل عمیق
-
تولید ویدئوی هوش مصنوعی در عرض یک پلک زدن
ویدئوی هوش مصنوعی آنی و در لحظه از راه رسیده و فرصتها و تهدیدهای جدیدی با خود به همراه آورده است.
-
مراقب تهدید «جعل عمیق» باشید
در آغاز سال میلادی جاری، ویدیویی در سایتهای رسانههای اجتماعی هند منتشر شد که مدیر اجرایی بورس بمبئی، ساندارارامان رامامورتی، را در حال ارائه مشاوره به سرمایهگذاران در مورد خرید سهام نشان میداد. تنها مشکل این بود که رامامورتی در حال صحبت نبود. این یک ویدئوی جعل عمیق از او بود که با استفاده از هوش مصنوعی ساخته شده بود.
-
افزایش ۹۰۰ درصدی استفاده از جعل عمیق در سال
تشخیص واقعیت از جعل عمیق دیگر ممکن نیست
در طول سال ۲۰۲۵، جعل عمیق بهطرز چشمگیری پیشرفت کرد. چهرهها، صداها و حتی اجراهای تمامقد تولیدشده با هوش مصنوعی که افراد واقعی را شبیهسازی میکنند، از نظر کیفیت فراتر از چیزی رفتند که حتی بسیاری از کارشناسان چند سال پیش انتظارش را داشتند. در عین حال، استفاده از آنها برای فریب دادن مردم نیز بهطور محسوسی افزایش یافت.
-
هوش مصنوعی جدید یوتیوب با «جعل عمیق» مبارزه میکند
در عرصه همواره در حال تکامل تولید محتوا، جعلهای عمیق تولید شده توسط هوش مصنوعی، تهدیدی جدی برای سازندگان و بینندگان محسوب میشوند. برای کمک به مهار این مشکل، یوتیوب ابزار جدیدی به نام تشخیص شباهت راهاندازی کرده است.
-
ترامپ امروز «جعل عمیق» را جرم اعلام میکند
دونالد ترامپ، رئیس جمهور آمریکا امروز قانونی موسوم به «Take It »Down را امضا خواهد کرد که استفاده از فناوری «جعل عمیق» یا «دیپفیک» به وسیله هوش مصنوعی را جرمانگاری میکند.
-
حفاظت از انتخابات فیلیپین در برابر «جعل عمیق» توسط مایکروسافت
در طول ۱۸ ماه اخیر، بیش از دو میلیارد نفر در سراسر جهان فرصت رای دادن در انتخابات ملی فیلیپین را داشتهاند. اما یکپارچگی این فرآیند دموکراتیک با چالشهای بیسابقهای روبرو است. شرکت مایکروسافت، متعهد به حفاظت از صندوقهای رای و حمایت از احزاب و کمپینهای سیاسی با منابع قوی امنیت سایبری شده است.
-
مقتولی که در دادگاه برای قاتل خود تقاضای بخشش کرد!
یک مرد متوفی با استفاده از فناوری جعل عمیق(Deepfake) توانست بیانیه تاثیرگذاری در دادگاه ارائه دهد.
-
هوش مصنوعی با شبیهسازی ضربان قلب ابزارهای تشخیص «جعل عمیق» را دور میزند!
محققانی که به دنبال کشف جعل عمیق یا دیپفیکها بودند، مدتها به یک روش تشخیصی به ظاهر بیعیب و نقص متکی بودند و آن این بود که هوش مصنوعی نمیتوانست تغییرات ظریف در رنگ پوست را که ناشی از نبض افراد است، جعل کند. این قطعیت اکنون از بین رفته است، زیرا دانشمندان کشف کردهاند که جعلهای عمیق مدرن سهوا الگوهای ضربان قلب را از ویدئوهای منبع خود حفظ میکنند و باعث میشوند که معتبرترین ابزارهای تشخیص ما ناگهان به گزینههایی غیرقابل اعتماد تبدیل شوند. به نظر میرسد این همزادهای دیجیتالی ما، به تازگی قادر به شبیهسازی نبض شدهاند.
-
اینترسپت: پنتاگون به دنبال به کارگیری فنآوری «جعل عمیق» است
یک پایگاه آمریکایی فاش کرد ارتش این کشور به دنبال استخدام تولیدکنندگان محتواهای به اصطلاح «جعل عمیق» در فضای مجازی است.
-
به خدا هوش مصنوعی بود؛ من نیستم!
اگر شما هم این روزها تصاویر و آهنگهایی را میبینید و میشنوید که مطمئن نیستید واقعی هستند یا خیر، باید بدانید تنها نیستید چون یک نفر تصمیم گرفته نهایت استفاده از یک تکنولوژی پیشرفته را به بهانه سرگرمی تا این حد پایین بیاورد؛ یک سرگرمی گذرا که گاهی اثبات واقعی نبودنِ آن نیاز به قَسم و آیه دارد!
-
ویدیو/ تهدیدات سایبری، انتخابات بریتانیا را تهدید میکنند!
بریتانیا در شرایطی که با چالشهایی مثل افزایش هزینه زندگی و مهاجرت مواجه شده، برای انتخابات محلی و عمومی در سال جاری آماده میشود؛ در این وضعیت فعالان حوزه رسانه هشدار دادهاند تبلیغات مبتنی بر «جعل عمیق» زنگ خطری برای سلامت انتخابات سال جاری در بریتانیا است.