به گزارش ایسنا، از برنامههایی که تماشا میکنیم تا افرادی که استخدام میکنیم، الگوریتمها به طور فزایندهای در زندگی روزمره ما ادغام میشوند و بیسروصدا بر تصمیمهایی که میگیریم اثر میگذارند.
به نقل از ادونسد ساینس نیوز، هسته الگوریتمها، مجموعهای از قوانین یا دستورالعملهاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شدهاند اما از آنجا که الگوریتمها از الگوهای رفتاری انسان یاد میگیرند، میتوانند سوگیریهایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان میدهد که این ممکن است زیاد بد نباشد.
«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب میتواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتمهای یادگیری ماشینی بسیار موفق هستند زیرا میتوانند بیطرفانه الگوها را در مجموعه دادهها پیدا کنند اما در عین حال، سوگیریهای انسانی را نیز در دادههای آموزشی خود لحاظ کنند.
هنگامی که این سوگیریها در الگوریتمها شناسایی میشوند، میتوانند به آشکارسازی سوگیریهای بلندمدت در سازمانها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوههای استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومههای جدید را براساس شیوههای پیشین استخدام شرکت ارزیابی میکرد، به این موضوع پی برد.
موروج گفت: الگوریتمها میتوانند سوگیریهای انسانی را کدگذاری و تقویت کنند اما سوگیریهای ساختاری را نیز در جامعه ما نشان میدهند.
انسانها سوگیریهای خود را تشخیص نمیدهند
موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیریهای موجود در تصمیمگیری الگوریتم در مقایسه با تصمیمگیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتمها برای رسیدگی به سوگیریهای موجود در تصمیمگیریها استفاده کرد.
انسانها به دلیل پدیدهای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمیکنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما میتوانیم در فرآیندهای تصمیمگیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیمگیری ندارد، سوگیریها واضحتر و بهانهجویی دشوارتر است.
موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتمها براساس رفتارهای ما آموزش داده میشوند نیز این موضوع صادق است.
تشخیص دادن سوگیری در الگوریتم سادهتر است
پژوهشگران در یک مجموعه آزمایش، از شرکتکنندگان خواستند تا سرویس «ایربیانبی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستارهها، ارزیابیها و مدت زمان حضور داشتن کنار راننده رتبهبندی کنند.
پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکتکنندگان دو بار رتبهبندی را انجام دادند و سپس، رتبهبندیهای آنها یا رتبهبندی الگوریتم آموزشدادهشده نشان داده شد.
گاهی اوقات رتبهبندی خود شرکتکنندگان به آنها نشان داده میشد اما به آنها گفته میشد که رتبهبندی الگوریتم است. در همه سناریوها، شرکتکنندگان در مقایسه با الگوریتمها سوگیری کمتری را در رتبهبندیهای خود مشاهده کردند.
موروج گفت: مردم وقتی معتقدند که رتبهبندیها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی دادههای آنها آموزش میدهیم و رتبهبندی الگوریتم براساس آن دادهها صورت میگیرد.
وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگیها را در الگوریتمها میبینند، بلکه چیزهایی را میبینند که برای خودشان تهدیدکنندهتر است. بیشتر مردم نمیخواهند از نژاد در رتبهبندیهای خود استفاده کنند یا میخواهند نژاد را در آن رتبهبندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبهبندیها تأثیر گذاشته، تهدیدکننده است.
در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیمگیری ناقص خود ما تلقی نمیشود، دیدن یا اعتراف کردن به وجود آن آسانتر است. به گفته موروج، این یافته دو روش را ارائه میدهد که الگوریتمها به واسطه آن میتوانند به انسان در کاهش سوگیری کمک کنند.
وی افزود: یک روش این است که تصمیمهای خود را جمعآوری کنید و الگوها را ببینید که به شما کمک میکنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیریها وجود دارد. ما انگیزههایی را برای محافظت از خود داریم.
موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکتکنندگان به اصلاح سوگیری در رتبهبندیهای خود یا الگوریتم بپردازند. پس از مشاهده رتبهبندیها، به شرکتکنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبهبندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبهبندی الگوریتم میبینند تا خودشان، احتمال بیشتری وجود دارد که رتبهبندیهای الگوریتم را اصلاح کنند.
موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را میبیند که از طریق آن میتوان یافتهها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیریهای خود را بفهمند و آنها را ببینند. من فکر میکنم این الگوریتمها، روش سودمندی برای ارائه دادن یک دیدگاه واقعیتر به افراد درباره میزان سوگیری آنها هستند.
این پژوهش در مجله «PNAS» به چاپ رسید.
انتهای پیام
نظرات