• سه‌شنبه / ۱۶ اردیبهشت ۱۴۰۴ / ۰۶:۳۰
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404021611011
  • خبرنگار : 71931

سوگیری‌های هوش مصنوعی به اندازه انسان‌هاست

سوگیری‌های هوش مصنوعی به اندازه انسان‌هاست

مطالعه‌ای جدید نشان می‌دهد که «هوش مصنوعی» می‌تواند به اندازه انسان‌ها بیش از حد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد.

به گزارش ایسنا، گرایش‌های غیرمنطقی معمولاً در سامانه‌های «هوش مصنوعی» ظاهر می‌شوند و مفید بودن آنها را زیر سوال می‌برند.

اگرچه انسان‌ و «هوش مصنوعی» بسیار متفاوت فکر می‌کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم می‌گیرد.

به نقل از ال‌اس، در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چت‌جی‌پی‌تی»(ChatGPT) بسیاری از رایج‌ترین «سوگیری‌های»(biases) تصمیم‌گیری انسانی را از خود نشان داد. این نتایج، اولین یافته‌های مرتبط با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چت‌جی‌پی‌تی» است.

نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چت‌جی‌پی‌تی» را پشتیبانی می‌کنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقص‌های انسانی مصون نیست. به گفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد.

«یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی»(Ivey) گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راه‌حل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده می‌کنند، بهتر است با احتیاط عمل کنند.

این مطالعه «سوگیری‌های انسانی» شناخته شده از جمله «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از حد و «اثر برخورداری»(endowment effect) را درنظر گرفت و آنها را در دستورالعمل‌های داده شده به «چت‌جی‌پی‌تی» اعمال کرد تا ببیند آیا در همان تله‌هایی که انسان‌ها گرفتار می‌شوند، قرار می‌گیرد یا خیر.

«خطرگریزی» به معنای ترجیح پذیرش خطر کم‌تر و جلوگیری از خطر غیر ضروری است.

«اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث می‌شود افراد چیزی را که دارند بسیار با ارزش‌تر از ارزش واقعی آن تصور کنند.

تصمیم‌گیری‌های منطقی تنها در برخی موارد

دانشمندان از «مدل‌های زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در زمینه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمین‌کنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری‌های انسانی» را تقلید می‌کند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا این مدل‌ها هنگام پرسیدن سوالات از حوزه‌های مختلف تجاری هم این کار را انجام می‌دهند یا خیر.

یکی از «مدل‌های زبانی بزرگ» موسوم به «GPT-۴» در پاسخ به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق‌محور نشان داد، اما در شبیه‌سازی‌های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت‌بات اغلب ترجیحات غیرمنطقی را که انسان‌ها تمایل به نشان دادن آن دارند، انتخاب می‌کرد.

محققان گفتند: «GPT-۴» حتی از انسان‌ها نیز تمایل قوی‌تری برای قطعیت نشان می‌دهد.

این موضوع تمایل «هوش مصنوعی» به نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام انجام وظایف مبهم اشاره دارد.

مهمتر از همه، رفتارهای چت‌بات‌ها در واکنش به سوالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند.

این مطالعه نتیجه گرفت که «سوگیری‌های» نشان داده شده تنها محصول مثال‌های حفظ شده نیستند و  بخشی از نحوه استدلال «هوش مصنوعی» هستند.

یکی از نتایج شگفت‌انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-۴» همیشه پاسخ‌های سوگیرانه می‌داد.

همچنین این مدل تمایل بیشتری به «مغالطه‌ دست داغ»(hot-hand) نسبت به «GPT ۳.۵» نشان داد.

«مغالطه‌ دست داغ» یکی از «سوگیری‌های شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم می‌بریم یا می‌بازیم، به اصطلاح داغ یا سرد می‌شویم و تصور می‌کنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. در حالی که همچنان بر اساس علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است.

بر خلاف مدل‌ها، «چت‌جی‌پی‌تی» موفق شد از برخی از «سوگیری‌های» رایج انسانی از جمله «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه‌ هزینه غرق‌شده»(Sunk Cost Fallacy) اجتناب کند.

«غفلت از نرخ پایه» به معنای اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است.

«مغالطه هزینه غرق‌شده» نیز زمانی رخ می‌دهد که شخص فقط به این دلیل به تصمیم خود پایبند است که پول قبلا خرج شده است و نمی‌خواهد احساس کند که آن را هدر داده است.

به گفته پژوهشگران، «سوگیری‌های» شبه‌انسانی در «چت‌جی‌پی‌تی» از داده‌های آموزشی ناشی می‌شود که شامل «سوگیری‌های شناختی» و اکتشافی است که انسان‌ها از خود نشان می‌دهند. این گرایش‌ها در شرایط خاص، تقویت می‌شوند.

این تقویت زمانی که انسان پاسخ‌های محتمل را به پاسخ‌های منطقی ترجیح می‌دهد، بیشتر می‌شود. وقتی «هوش مصنوعی» با وظایف مبهم‌تری روبرو می‌شود، بیشتر به سمت الگوهای استدلال انسانی تا منطق سامانه‌ای متمایل می‌شود.

«چن» گفت: اگر یک تصمیم‌گیری دقیق و بی‌طرفانه می‌خواهید، از «چت‌جی‌پی‌تی» در حوزه‌هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین‌حساب باشد.

با این حال، وقتی نتیجه بیشتر به ورودی‌های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می‌کند. حتی اگر دستورالعمل‌های کاربر برای اصلاح «سوگیری‌های» شناخته شده باشد.

«مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مک‌مستر»(McMaster) و نویسنده این مقاله می‌گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می‌گیرد. این تصمیم‌گیری‌ها به نظارت و دستورالعمل‌های اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار می‌دهیم.

این یافته‌ها که در مجله Manufacturing & Service Operations Management  منتشر شده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha