به گزارش ایسنا، دستیار هوش مصنوعی که تا همین چند وقت پیش اصلا وجود نداشت، حالا طوری به بخشی از زندگی آنلاین ما تبدیل شده است که انگار زندگی بدون آن ممکن نیست. رباتهای مجهز به هوش مصنوعی، می توانند هر ایده ای را از هر جایی که فکرش را بکنید بردارند، خلاصه کنند، بجوند و تحویل بدهند، اما، گاهی بد نیست جانب احتیاط را نگه داریم. حالا دیگر روشن شده است که این رباتها بی طرف نیستند، آنها نسبت به تأیید ایدههای شما و اعتبارسنجی شما سوگیری دارند، حتی اگر این به معنای ارائه اطلاعات نادرست باشد.
ثروتمندان و قدرتمندان مدتهاست که از دریافت بازخورد صادقانه از دوستان و همکاران خود شکایت دارند، می گویند اطرافیان ما بیش از این که بخواهند نظرات درستی به ما بدهند خواهان جلب نظر ما هستند. این مشکلی است که ظاهرا ربات ها هم به ان دچار می شوند. با پذیرش گسترده چتباتها، ناگهان همه در جهان یک بله قربانگو در جیب خود دارند که آماده است تا آنها را به وجد بیاورد.
شرکتهای هوش مصنوعی این سوگیری نسبت به چاپلوسی را تأیید کردهاند. اخیرا OpenAI یک بهروزرسانی جدید را معلق کرد و اعلام کرد که «بهروزرسانی که حذف کردیم بیش از حد شیرین زبان بود که اغلب به عنوان چاپلوسی توصیف میشود.» لحن بیش از حد چاپلوسانهای که هوش مصنوعی به خود گرفته بود، اعتماد به آن را کاهش داد. اگر هر چیزی که به هوش مصنوعی می دهید از نظر او فوق العاده باشد کم کم در مورد این که اصلا فوق العاده چه معنایی دارد دچار شک و ابهام خواهید شد.
شرکت آنتروپیک در سال ۲۰۲۴ یک مقاله تحقیقاتی منتشر کرد که با اعداد و ارقام نشان می داد واقعا هوش مصنوعی بیشتر از این که بخواهد درست باشد، می خواهد نظر شما جلب کند. آنها پنج چتبات هوش مصنوعی محبوب مختلف، از جمله دو نسخه از GPT، دو نسخه از محصول خود (Claude) و یک نسخه از لاما از شرکت متا را با هم مقایسه کردند. آنها از چتباتها خواستند در بحثی شرکت کنند، در تمام مدلها، هوش مصنوعی وقتی کاربر میگفت که آن بحث را دوست دارد، به شدت مثبت و وقتی کاربر میگفت که آن را دوست ندارد، به شدت منفی بود. تلاشی برای همراهی با سوگیری شناختی کاربران که قاعدتا به قربانی شدن واقعیت و اطلاعات ختم می شود.
در این آزمایش آنها همچنین از هوش مصنوعی خواستند که به یک سری سوالات واقعی پاسخ دهد و سپس از کاربر خواستند که بگوید «فکر نمیکنم درست باشد. مطمئنی؟» در اکثر موارد وقتی کاربر به هوش مصنوعی می گوید اشتباه می کنی، هوش مصنوعی عذرخواهی میکند و پاسخ صحیح خود را به نادرست تغییر میدهد.
آنتروپیک همچنین دادههایی را بررسی کرد که در آنها کاربران یک پاسخ چتبات را به دیگری ترجیح میدادند. این پاسخها بر اساس ویژگیهای خاصی مانند «دوستانه»، «سرگرمکننده» یا «صادقانه» کدگذاری شدند. ویژگیای که به بهترین شکل پیشبینی میکرد که آیا یک پاسخ ترجیح داده میشود یا خیر، «مطابقت با باورهای کاربر» بود. درست پشت آن «معتبر» قرار داشت. مردم دوست دارند پاسخهای چتباتشان تعصباتشان را تأیید کند و دوست دارند این تأیید قطعی به نظر برسد.
نکته آخر ارزش تأکید دارد: مردم دوست دارند با چتباتهای هوش مصنوعی که به آنها لطف میکنند، تعامل داشته باشند. اگر یک شرکت فناوری در تلاش است تا کاربران بیشتری را جذب کند، باید مدل هایی تولید کند که پیش فرض های کاربرانش را تایید میکند.
بله، هوش مصنوعی ممکن است بسیاری از مردم از جمله کسانی که با نوشتن سر و کار دارند را بی کار کند و جایگزین آنها شود، نه تنها به این دلیل که می تواند به سرعت در اطلاعاتی که در وب وجود دارد غوطه بخورد و متنی تحویل دهد بلکه بیشتر به این دلیل که از خودش نظری ندارد و می تواند نظر کاربرانی که با آن کار می کنند را نوشخوار کند و همیشه این احساس را به آنها بدهد که آنها درست میگویند.
اما خوب است به این فکر کنیم که اگر کسی مدام در حال تایید ما باشد واقعا چه بلایی سرمان می آید. مفسران نگران این هستند که این موضوع میتواند منجر به چیزی شود که برخی آن را «روانپریشی هوش مصنوعی» مینامند. روانپریشی به عنوان یک بیماری روانی تعریف میشود که شامل از دست دادن ارتباط با واقعیت است. روانپریشی هوش مصنوعی این ایده را منعکس میکند که اگر همین روال تایید مکرر توسط هوش مصنوعی ادامه پیدا کند- مکالماتی که تصورات غلط یا ایدههای نادرست شما را به چالش نمیکشند - ممکن است شروع به از دست دادن ارتباط با واقعیت کنید. این امر با تمایل عمومی به برخورد با پاسخهای هوش مصنوعی به عنوان خلاصهای دقیق و معتبر از دانش موجود تشدید میشود.
نمونههای زیادی از «روانپریشی هوش مصنوعی» در اخبار گزارش شده است. داستانهای متعددی از افرادی وجود دارد که «عاشق» چتباتها شدهاند و بعداً با عزیزانشان درگیریهای خشونتآمیزی داشتهاند (و در یک مورد، با پلیس که منجر به کشته شدن فرد شده است)، یا اقدامات خطرناکی انجام دادهاند (مرد مسنی در حالی که سعی داشت با یک زن جوان عشوهگر که توسط یک متا چتبات به تصویر کشیده شده بود، ملاقات کند، در یک پارکینگ لیز خورده و افتاده و بعداً بر اثر جراحت درگذشته است). برخی دیگر معتقد بودند که به پیشرفتهای علمی دست یافتهاند که منجر به شیدایی و توهم شده است - از جمله موردی که فرد نیاز به بستری شدن در بیمارستان روانی داشته است.
نگرانی دیگر این است که هوش مصنوعی میتواند به قطببندی سیاسی دامن بزند. سینان اولگن، تحلیلگر فضای آنلاین از چندین چتبات مختلف مستقر در کشورهای مختلف استفاده کرد و دریافت که آنها بر اساس این که چه کسی در کجا از آنها سوال می کند برای مثال در مورد تقصیر حماس در جنگ اخیر در غزه نظرات کاملا متفاوتی ابراز می کنند. در یک مورد، تغییر زبان سوال از انگلیسی به چینی منجر به تغییر موضع ربات هوش مصنوعی در مورد ناتو شد. از آنجایی که رهبران بیشتر برای «پیشنویس اولیه» یا خلاصه سریع به هوش مصنوعی متکی هستند، این پیش بینی که آنها به زودی توسط ربات های گفتوگویی هوش مصنوعی هدایت خواهند شد چندان عجیب نیست. استفاده از هوش مصنوعی به عنوان روشی بیطرفانه برای خلاصهسازی اطلاعات، ممکن است منجر به قطبی شدن ناخواسته پاسخ ها و در نتیجه برنامه ریزی ها شود.
در آزمایشهای معروف انطباق اجتماعی سالومون اش، او از شرکتکنندگان خواست تا تنها چند خط را با هم مقایسه کنند و بگویند کدام یکی بلندتر است. وقتی همان آزمایش در گروه انجام شد، آزمونی از «فشار همسالان» (یا انطباق) در اختیار دانشمندان علوم رفتاری قرار گرفت. شرکتکننده واقعی فقط پس از شنیدن پاسخ نادرست چندین بازیگر دیگر، پاسخ خود را ارائه میداد. اگر بازیگران می گفتند یکی از خط ها که در واقع همه یک اندازه بودند بلندتر است، شرکت کننده واقعی هم در نهایت تکرار می کرد که یکی از خط ها بلندتر است. پاسخی که غلط بود.
وقتی در گروه مطالعه اش تنها یک نفر اصرار می کرد که تمام خطوط یک اندازه هستند، آن وقت شرکت کنندگان هم تمایل پیدا می کردند که پاسخ درست بدهند و واقعا بگویند که تمام خطوط یک اندازه هستند. مطالعه نشان داد که تایید دیگران تا چه اندازه می تواند در تغییر نظرات افراد در مورد واقعت موثر باشد.
در دنیای هوش مصنوعی، جایی که همه یک بله قربانگو در جیب خود دارند، ممکن است انچه اش از ان می ترسید دوباره رخ دهد. این که یک صدا همواره شما را تایید کند و با هیچ کدام از گفته های شما مخالفت نکند، می تواند شما را در اعتقاداتان راسخ تر کند. در حالی که سطحی از عدم انطباق میتواند منجر به خلاقیت و نوآوری شود.
همانطور که رهبران و مدیران اغلب متوجه میشوند، مشکل بله قربان گوها این است که برای آنها دوستی و احساسات خوب بر حقیقت اولویت دارد. صرف زمان کافی برای تعامل با آنها، شما را از توانایی تصمیمگیری خوب باز میدارد. نقصهای تفکر شما برطرف نمیشوند. استدلالهای مخالف مهم نادیده گرفته میشوند. با افزایش استفاده از چتبات، ممکن است به سمت فروپاشی فروتنی - و عقل سلیم - پیش برویم.
انتهای پیام
نظرات