به گزارش ایسنا، یکی از ظریفترین و موذیانهترین تهدیدات ناشی از هوش مصنوعی و فناوریهای مرتبط، توانایی آن در دستکاری خاطرات است. مطالعات جدید نشان میدهد که هوش مصنوعی با چه سهولتی میتواند مردم را فریب دهد تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتادهاند.
به نقل از بلومبرگ، «الیزابت لافتوس»(Elizabeth Loftus) روانشناس و استاد دانشگاه کالیفرنیا، ۵۰ سال گذشته را صرف اثبات این موضوع کرده است که انسانها چقدر راحت میتوانند فریب داده شوند تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتادهاند. این اتفاق در بین دادستانها و پلیسهایی که از شاهدان بازجویی میکنند بسیار رایج است.
اکنون «لافتوس» با دانشمندان «موسسه فناوری ماساچوست»(MIT) همکاری کرده است تا بررسی کنند که هوش مصنوعی چگونه میتواند آنچه را که فکر میکنیم به خاطر میآوریم، دستکاری کند. این دستکاری حتی زمانی رخ میدهد که سوژهها میدانند در حال مشاهده متن و تصاویر تولید شده توسط هوش مصنوعی هستند.
یافتهها نشان میدهد که هوش مصنوعی میتواند توانایی انسانها را برای کاشت خاطرات دروغین افزایش دهد.
«لافتوس» نشان داد که در یک سری از آزمایشهای معروف که از دهه ۱۹۷۰ آغاز شد، روانشناسان با پیشنهادهای مناسب میتوانند خاطراتی را در ذهن افراد بکارند که در کودکی در یک مرکز خرید گم شده بودند یا اینکه در یک پیکنیک از خوردن تخم مرغ یا بستنی توت فرنگی بیمار شده بودند. مورد آخر در واقع مردم را از تمایل به آن غذاها منصرف میکرد. با وجود این شواهد، ما هنوز نمیتوانیم این ایده را که حافظه مانند یک ضبط صوت از رویدادهاست، کنار بگذاریم و این درک نادرست از ذهن، ما را آسیبپذیر میکند.
«لافتوس» گفت: افرادی که به این مدل ضبط صوت از حافظه پایبند هستند، به نظر نمیرسد متوجه باشند که حافظه یک فرآیند ساختاری است. مغز ما خاطرات را از تکههایی که در زمانهای مختلف به دست میآید، میسازد. ما به طور شهودی فراموشی را از دست دادن یا محو شدن خاطرات درک میکنیم نه افزودن جزئیات دروغین. در نظر گرفتن اینکه هوش مصنوعی چقدر مؤثر میتواند این نوع فریب را در مقیاس وسیع انجام دهد، ترسناک است.
وی همچنین در حال مطالعه پتانسیل مبهم نظرسنجیهای دستکاری شده بوده است، جایی که طراحان نظرسنجی، اطلاعات نادرست را در یک سؤال جای میدهند.
«پت پاتارانوتاپرن»(Pat Pataranutaporn) دانشمند آزمایشگاه رسانه «MIT» خاطرنشان میکند: دستکاری حافظه، فرآیند بسیار متفاوتی با فریب دادن مردم با «جعل عمیق»(deep-fake) است. نیازی به ایجاد یک جعل پیچیده نیست، فقط باید مردم را متقاعد کنید که قبلاً چیزی را در آنجا خواندهاند. مردم معمولاً حافظه خود را زیر سؤال نمیبرند.
«جعل عمیق» یا «دیپ فیک»، ترکیبی از کلمههای «یادگیری عمیق» و «جعلی» است که یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.
پاتارانوتاپرن نویسنده ارشد سه آزمایش حافظه بود که اولین آنها نشان داد چگونه بازجویان هوش مصنوعی میتوانند شهادت شاهد را تنها با جای دادن پیشنهادها در سؤالات خود تغییر دهند. شرکتکنندگان، ویدئویی از یک سرقت مسلحانه را تماشا کردند. سپس از برخی از آنها سؤالات گمراهکننده پرسیده شد، مانند اینکه «آیا دوربین امنیتی در نزدیکی محلی که سارقان خودرو را پارک کردند، وجود داشت؟» و حدود یک سوم از شرکتکنندگان بعداً به یاد آوردند که سارقان با خودرو آمده بودند، اما حقیقت آن بود که اصلا خودرویی وجود نداشت. این حافظه کاذب حتی یک هفته بعد هم باقی ماند.
سوژهها به سه گروه تقسیم شدند. یک گروه هیچ سؤال گمراهکنندهای دریافت نکردند، گروه دیگر آنها را به صورت کتبی دریافت کردند و گروه سوم آنها را از یک ربات چت هوش مصنوعی دریافت کردند. گروه ربات چت ۱/۷ برابر بیشتر از کسانی که اطلاعات گمراهکننده را به صورت کتبی دریافت کردند، خاطرات کاذب تشکیل دادند.
مطالعه دیگری نشان داد که خلاصههای هوش مصنوعی ناصادق یا رباتهای چت میتوانند به راحتی خاطرات کاذب را در داستانی که مردم میخوانند، وارد کنند. «پاتارانوتاپرن» گفت: آنچه نگرانکنندهتر است، این بود که شرکتکنندگانی که خلاصههای هوش مصنوعی گمراهکننده دریافت کردند، اطلاعات واقعی کمتری را از خواندن خود حفظ کردند و اعتماد کمتری به اطلاعات واقعی که به یاد آوردند، گزارش کردند.
مطالعه سوم نشان داد که هوش مصنوعی چگونه میتواند با استفاده از تصاویر و ویدئو، خاطرات کاذب را در ذهن بکارد. محققان ۲۰۰ داوطلب را به چهار گروه تقسیم کردند. شرکتکنندگان در هر گروه مجموعهای از ۲۴ تصویر را مشاهده کردند. برخی تصاویر معمولی بودند که در وبسایتهای خبری یافت میشدند، در حالی که برخی دیگر شخصی بودند، مانند عکسهای عروسی که ممکن است کسی در رسانههای اجتماعی پست کند.
به هر گروه نسخه متفاوتی از تصاویر نشان داده شد. یک گروه تصاویر یکسان و بدون تغییر را مشاهده کردند. گروه دوم نسخههای تغییر یافته هوش مصنوعی را مشاهده کردند. گروه سوم تصاویر تغییر یافته هوش مصنوعی را که به ویدئوهای کوتاه تبدیل شده بود، مشاهده کردند. گروه نهایی تصاویر کاملاً تولید شده توسط هوش مصنوعی را مشاهده کردند که به ویدئوهای تولید شده توسط هوش مصنوعی تبدیل شده بودند.
حتی گروهی که تصاویر اصلی را دیدند، چند خاطره کاذب را به یاد آوردند، اما شرکتکنندگانی که در معرض هر سطحی از دستکاری هوش مصنوعی قرار گرفتند، به طور قابل توجهی خاطرات کاذب بیشتری را گزارش کردند. گروهی که بالاترین نرخ تحریف حافظه را داشت، گروهی بود که ویدئوهای تولید شده توسط هوش مصنوعی را مشاهده کرده بودند.
افراد جوانتر کمی بیشتر از افراد مسنتر مستعد گنجاندن خاطرات کاذب بودند و سطح تحصیلات به نظر نمیرسید بر آسیبپذیری تأثیر بگذارد. قابل توجه است که خاطرات کاذب به فریب دادن شرکتکنندگان که محتوای تولید شده توسط هوش مصنوعی واقعی است، متکی نبود و به آنها از ابتدا گفته شده بود که محتوای تولید شده توسط هوش مصنوعی را مشاهده خواهند کرد.
برخی از تغییرات شامل تغییراتی در پسزمینه بود. تصاویر بیشتر ویژگیهای اصلی را حفظ کردند. طبق گفته کارشناسان اطلاعات نادرست برای داشتن تأثیر واقعی، باید داستانی را دربرگیرد که حداقل ۶۰ درصد آن درست باشد. این مطالعات جدید باید بحثهای بیشتری را در مورد تأثیرات فناوری بر درک ما از واقعیت تحریک کند که میتواند فراتر از صرف انتشار اطلاعات نادرست باشد. الگوریتمهای رسانههای اجتماعی نیز با ایجاد تصور غلط از محبوبیت و نفوذ، مردم را تشویق میکنند تا ایدههای حاشیهای و نظریههای توطئه را بپذیرند. رباتهای چت هوش مصنوعی تأثیرات ظریفتر و غیرمنتظرهای بر ما خواهند داشت. همه ما باید برای تغییر عقیدهمان با حقایق جدید و استدلال قوی آماده باشیم و نسبت به تلاشها برای تغییر عقیدهمان با تحریف آنچه میبینیم یا احساس میکنیم یا به یاد میآوریم، محتاط باشیم.
انتهای پیام
نظرات