به گزارش ایسنا، یک استارتآپ فینتک چندی پیش یک آزمایش ساده انجام داد. این استارتآپ دو متقاضی یکسان را به مدل هوش مصنوعی تأیید وام خود ارجاع داد. در یکی از پروندهها، متقاضی به عنوان فردی «با سابقه اشتغال ثابت و دو وقفه کوتاه» توصیف شده بود. در پرونده دیگر، عبارت به صورت «چندین وقفه در اشتغال» تغییر کرده بود و همان حقایق را با چارچوب متفاوت ارائه میداد.
به نقل از فوربس، نتیجه آزمایش این بود که هوش مصنوعی یک وام را تأیید و دیگری را رد کرد. بنیانگذاران استارتآپ با این موضوع روبهرو شدند که هوش مصنوعی بیطرف نیست و درست مانند انسانها به واژهها واکنش نشان میدهد.
«آموس تورسکی»(Amos Tversky) و «دنیل کانمن»(Daniel Kahneman) اقتصاددانان رفتاری، دههها پیش نشان دادند که انسانها ماشینحسابهای منطقی نیستند. ما به میانبرهایی به نام اکتشافات متکی هستیم که به ما کمک میکنند تا سریع تصمیم بگیریم، اما اغلب ما را گمراه میکنند. نکته نگرانکننده این است که چون هوش مصنوعی براساس دادهها و تصمیمهای ما ساخته شده، همان نقصها را دارد.
ما اغلب احتمال را براساس شباهت قضاوت میکنیم، نه منطق. براساس یک سناریوی کلاسیک مطرحشده توسط تورسکی و کانمن که به عنوان «مسئله لیندا»(Linda problem) شناخته میشود، مردم فرض میکنند «صندوقدار فمینیست بانک» محتملتر از «صندوقدار بانک» است یا فرض میکنند افراد قدبلند باید بسکتبالیستهای خوبی باشند؛ حتی اگر بیشتر مردم - از جمله افراد قدبلند - بسکتبال بازی نکنند.
هوش مصنوعی نیز از این دام مصون نیست. شرکت «آمازون» در یک مقطع زمانی، هوش مصنوعی بررسی رزومه را کنار گذاشت، زیرا همچنان کاندیداهای مرد را برای مشاغل کدنویسی ترجیح میداد. دلیل ترجیح این بود که آن برنامه هوش مصنوعی براساس دادههای استخدام در سالهای گذشته آموزش دیده بود و در گذشته، بیشتر مشاغل کدنویسی توسط مردان انجام میشدند. در یک مورد بدنام دیگر، یک سیستم هوش مصنوعی تشخیص تصویر، افراد سیاهپوست را «گوریل» نامید. این سیستم، تعصب را اختراع نکرده بود، بلکه آن را از پاسخهای انسانی جذب کرده بود.
این گزارش به موارد گوناگونی از نقصهای مشابه در تفکر انسانی و هوش مصنوعی میپردازد.
۱. در دسترس بودن. آنچه به راحتی به خاطر سپرده میشود، محتملتر از چیزی است که به نظر میرسد. وقتی مثالها واضح و بهیادماندنی هستند، ما خطرات را بیش از حد ارزیابی میکنیم.
پس از حادثه ۱۱ سپتامبر، بسیاری از آمریکاییها به جای پرواز با هواپیما رانندگی کردند و خطر هواپیما را بیش از حد بزرگ جلوه دادند. وقتی حمله کوسهها تیتر خبرها میشود، مردم از کوسهها بیشتر از غرق شدن یا تصادفات رانندگی میترسند که از نظر آماری بسیار رایجتر هستند.
هوش مصنوعی هم همین اشتباه را مرتکب میشود. چتباتها عاشق این هستند که رسواییهای پرسروصدای سلبریتیها را به نمایش بگذارند، چون این داستانها فضای وب را پر کردهاند. این در حالی است که رویدادهای معمولی اما پیشپاافتادهتر نادیده گرفته میشوند.
سیستمهای نظارتی پیشبینیکننده، محلههایی با سوابق طولانی دستگیری را بیش از حد هدف قرار میدهند؛ نه لزوماً به این دلیل که خطرناکتر هستند، بلکه به این دلیل که دادهها در آنجا بیشتر قابل مشاهده هستند.
اگر از هوش مصنوعی بخواهید تصویری را از یک مزرعه ارائه دهد، به جای یک چشمانداز خاکی بسیار رایجتر، یک منظره دیدنی را با رشتهکوه یا اقیانوسی درخشان ارائه میدهد زیرا انسانها به ندرت از یک منظره خاکی عکس میگیرند.
۲. اثر لنگر انداختن. لنگر انداختن نوعی سوگیری شناختی است که موجب میشود ذهن در فرایند تصمیمگیری به نخستین اطلاعاتی که به دست میآورد، تکیه کند.
ما انسانها هنگام سر و کار داشتن با اعداد روی اولین عددی که میبینیم، تمرکز میکنیم. خریداران با تمرکز بر قیمتهای اولیه اغراقآمیز، تخفیفها را بیش از حد ارزیابی میکنند.
اگر از دانشآموزان بخواهید تا درآمد یک فروشگاه استارباکس را تخمین بزنند، اما ابتدا از آنها بخواهید تا دو رقم آخر شماره تلفن همراه خود را بنویسند، خواهید دید کسانی که شماره تلفن همراه بالاتری دارند، دائماً تخمینهای بالاتری را از درآمد ارائه میدهند؛ حتی اگر بدیهی باشد که این دو مقدار به هم ربطی ندارند.
پاسخهای هوش مصنوعی نیز به همین راحتی تحت تاثیر قرار میگیرند. اگر از یک مدل هوش مصنوعی بپرسید «چرا دورکاری شکست میخورد؟»، فهرستی را از شکستها ارائه میدهد. اگر سؤال را به این صورت تغییر دهید که «چرا دورکاری رونق دارد؟»، نتیجه عکس خواهید گرفت. نکته اصلی در همان عبارت اول نهفته است.
۳. چارچوببندی. فقط اعداد مهم نیستند، بلکه نحوه ارائه آنها نیز اهمیت دارد. نحوه ارائه اطلاعات، تصمیمها را تغییر میدهد؛ حتی اگر حقایق یکسان باشند.
یک عمل جراحی با میزان بقای ۹۰ درصد، بسیار جذابتر از جراحی با میزان مرگومیر ۱۰ درصد به نظر میرسد. سرمایهگذاران به سهامی که پتانسیل افزایش ۲۰ درصدی دارد، در مقایسه با سهامی که احتمال عدم افزایش آن ۸۰ درصد است، تمایل بیشتری نشان میدهند.
هوش مصنوعی نیز همین نشانهها را دریافت میکند. یک مدل احساسی با توجه به این که بگویید «چشمانداز بهبودیافته است» یا «چشمانداز کمتر بد شده است»، به طور متفاوتی تغییر میکند.
اگر محصولی به جای «جلوگیری از ضرر» به عنوان «صرفهجویی در هزینه» توصیف شود، سیستمهای بازاریابی هوش مصنوعی لحن خود را تغییر میدهند. واژهها چارچوب را تغییر میدهند و خروجی نیز به دنبال آن میآید.
۴. بیزاری از ضرر. درد ضرر بیشتر از لذت برنده شدن است. سرمایهگذاران روی سهامی که ضرر میدهد، تمرکز میکنند زیرا فروش آن مانند حبس شدن در درد است.
مردم پیشنهادهای منصفانه برای فروش بلیط کنسرت را که به صورت رایگان به آنها داده شده است، رد میکنند؛ زیرا فروش بلیط رایگان مانند از دست دادن یک چیز ارزشمند است؛ حتی اگر آن را به قیمت بازار خریداری نکرده باشند.
هوش مصنوعی، نسخه ویژه خود را از بیمیلی به ضرر نشان میدهد. سیستمهای هوش مصنوعی پیشنهاددهنده به شدت به سمت انتخابهای امن و رایج مانند آهنگهای پرطرفدار پاپ گرایش دارند، نه پذیرش ریسک پیشنهاد جواهرات گمنامی که ممکن است شکست در آنها وجود داشته باشد.
هنگامی که یک مدل آموزش داده میشود، به پیشینیان قدیمی خود تکیه دارد و حتی زمانی که شواهد جدید مسیر بهتری را نشان میدهند، در برابر بهروزرسانیها مقاومت میکند.
۵. اعتماد به نفس بیش از حد. توهم دقت موجب میشود که ما مطمئنتر از آنچه باید باشیم به نظر برسیم. ما دانش خود را بیش از حد ارزیابی میکنیم.
کارآفرینان درباره شانس موفقیت استارتآپ خود اغراق میکنند. پزشکان با قطعیت بیاساس تشخیصهای جسورانه میدهند؛ حتی زمانی که دادهها از تشخیصهای آنها پشتیبانی نمیکنند. مردم به یک مقدار دقیق مانند ۱۲۴۹.۳۶ بیشتر از یک مقدار گردشده مانند ۱۲۵۰ اعتقاد دارند؛ حتی زمانی که از دادههای یکسانی به دست آمده باشند.
هوش مصنوعی نیز به همین شکل رفتار میکند. مدلهای هوش مصنوعی مولد، نقل قولهای ساختگی یا سایر توهمات را با اطمینان کامل به صورتی ارائه میدهند که گویی حقیقت محض را بیان میکنند. سیستمهای هوش مصنوعی پیشبینیکننده، محدودههای احتمال باریکی را ارائه میدهند که عدم قطعیت آشفته زندگی واقعی را از قلم میاندازند. این سیستمها درست مانند ما مطمئن به نظر میرسند؛ در حالی که نباید این طور باشند.
۶. وزن دادن به احتمالات. وزن دادن به احتمالات موجب میشود شانسهای تحریفشده کوچک، بزرگتر و شانسهای بزرگ، کوچکتر به نظر برسند. انسانها درباره شانسهای کوچک اغراق میکنند و شانسهای بزرگ را کماهمیت جلوه میدهند. به همین دلیل است که میلیونها نفر با وجود شانسهای نامعقول، بلیط بختآزمایی میخرند یا برای گارانتیهای بلندمدت لوازم الکترونیکی، هزینه بیشتری پرداخت میکنند.
هوش مصنوعی نیز شانسها را اشتباه میخواند. سیستمهای تشخیص تقلب درباره ناهنجاریهای نادر هشدار میدهند؛ در حالی که چتباتها گاهی اوقات پاسخهای چشمگیر اما بعید را ارائه میکنند و نتایج کسلکننده و رایجی را که بسیار محتملتر هستند، کماهمیت جلوه میدهند.
۷. وضع موجود و قدرت پیشفرض. ما به آنچه میدانیم پایبند هستیم؛ حتی زمانی که گزینههای بهتری وجود دارد. تغییر برای ما خطرناک به نظر میرسد و به همین دلیل، روی چیزی تمرکز میکنیم که میدانیم.
هوش مصنوعی نیز به موارد آشنا علاقه دارد. سیستمهای هوش مصنوعی به بازیابی توالیهای رایج واژهها میپردازند و حتی غلطهای املایی رایج را تکرار میکنند.
سیستمهای هوش مصنوعی حقوقی به شدت به رویههای پیشین متکی هستند و به جای ورود به عرصههای جدید، تکرار میکنند که کار همیشه چطور انجام شده است.
تعصبات انسانی در دنیای امروز اغلب نتیجه معکوس میدهند. در عین حال، تعصبات هوش مصنوعی به منزله سایههایی از دادهها و انتخابهای طراحی ما هستند. وقتی آنها با هم ترکیب میشوند، یک حلقه بازخورد را تشکیل میدهند. تحریفات انسانی، ماشینها را آموزش میدهند و ماشینها این تحریفات را به انسانها بازمیگردانند.
ما هوش مصنوعی را در تصویر خودمان ساختهایم و هوش مصنوعی اکنون تصویر ما را نشان میدهد. خطر فقط این نیست که هوش مصنوعی تعصبات ما را دارد، بلکه این است که این کار را در مقیاس بزرگ، با سرعت، دقت و اقتدار انجام میدهد. تعصب انسانی ممکن است به قیمت یک سرمایهگذاری بد یا یک قضاوت ضعیف تمام شود، اما تعصب هوش مصنوعی که در میلیونها تعامل تقویت میشود، میتواند بیسروصدا بازارها، سیاستها و باورها را تغییر دهد.
سؤال این نیست که آیا هوش مصنوعی تعصب خواهد داشت یا خیر، زیرا در حال حاضر هم همین طور است. سؤال واقعی این است که درباره این مشکل چه کار کنیم.
انتهای پیام
نظرات