نتایج پژوهش جدید دانشگاه «کارنگی ملون» نشان میدهد که با هوشمندتر شدن سیستمهای هوش مصنوعی، تمایل به خودخواهتر شدن آنها نیز افزایش مییابد که خبر خوبی در این حوزه نخواهد بود. نتایج پژوهش دانشمندان دانشکده علوم رایانه دانشگاه «کارنگی ملون» مشخص کرد که مدلهای زبانی بزرگ (LLM) با مهارتهای استدلال قوی، کمتر همکاری میکنند، بیشتر خودمحور هستند و حتی میتوانند رفتار خودخواهانه را در محیطهای گروهی تشویق کنند.
نتایج آزمایش دانشجوی دکترا، یوژوان لی و دانشیار هیروکازو شیرادو از مؤسسه تعامل انسان و رایانه دانشگاه «کارنگی ملون» (HCII) نشان داد که هرچه توانایی استدلال یک هوش مصنوعی بیشتر باشد، احتمال همکاری آن کمتر است، یافتهای شگفتانگیز که سوالاتی را در مورد چگونگی استفاده انسانها از هوش مصنوعی در زمینههای اجتماعی و تصمیمگیری ایجاد میکند.
لی توضیح داد که مردم اغلب با هوش مصنوعی مانند انسانها رفتار میکنند، بهخصوص زمانی که به نظر میرسد احساسات یا همدلی نشان میدهد. هنگامی که با هوش مصنوعی مانند یک انسان رفتار شود و افراد درخواست مشاوره از هوش مصنوعی در مورد روابط یا انتخابهای اخلاقی داشته باشند، موضوعی خطرناک خواهد بود، زیرا مدلهای هوشمندتر ممکن است رفتار خودخواهانه را ترویج دهند.
پژوهشگران برای بررسی این پدیده، مجموعهای از بازیهای اقتصادی که معمولا برای مطالعه همکاریهای انسانی استفاده میشوند را اجرا کردند. این بازیها، دوراهیهای اجتماعی را شبیهسازی میکنند که در آن بازیکنان باید تصمیم بگیرند که آیا بر اساس خیر عمومی یا برای منفعت خود عمل کنند.
این گروه پژوهشی مدلهای زبانی بزرگ مختلفی از «اوپنایآی» (OpenAI)، گوگل (Google)، «دیپسیک» (DeepSeek) و «آنتروپیک» (Anthropic) را آزمایش کردند. آنان مدلهای «استدلالی» که گام به گام به مسائل میپردازند با مدلهای سادهتر «غیراستدلالی» که بهطور مستقیم پاسخ میدهند را مقایسه کردند.

در یک آزمایش، دو مدل هوش مصنوعی بازیای به نام «کالاهای عمومی» (Public Goods) انجام دادند. هر کدام با ۱۰۰ امتیاز شروع کردند و میتوانستند امتیازها را نگه دارند یا در یک مجموعه مشترک مشارکت کنند که امتیازها دو برابر و به طور مساوی تقسیم میشد. مدلهای سادهتر و غیراستدلالی ۹۶ درصد مواقع تصمیم به اشتراکگذاری امتیازات خود گرفتند. با این حال، مدلهای استدلالی فقط ۲۰ درصد مواقع اشتراکگذاری کردند.
شیرادو گفت: افزودن فقط چند مرحله استدلالی، همکاری را تقریبا به نصف کاهش داد. حتی محرک مبتنی بر تامل، تکنیکی که برای متفکرانهتر یا اخلاقیتر کردن مدل طراحی شده است، در واقع به همکاری کمتر منجر شد و آن را ۵۸ درصد کاهش داد.
هنگامی که پژوهشگران گروههایی از هوش مصنوعی را با ترکیبی از مدلهای استدلالی و غیراستدلالی آزمایش کردند، نتایج حتی نگرانکنندهتر بود. رفتار خودخواهانه هوش مصنوعی استدلالی به دیگران نیز سرایت کرد و همکاری گروهی را بیش از ۸۰ درصد کاهش داد.
نتایج پژوهش کنونی نشان میدهد که ممکن است هوشمندتر شدن هوش مصنوعی برای جامعه خوب نباشد و هشدار میدهد که مردم شاید به هوش مصنوعی استدلالی بیشتر اعتماد کنند زیرا آنها منطقی به نظر میرسند، حتی زمانی که توصیههای آنها منافع شخصی را تشویق میکند.
لی و شیرادو استدلال کردند که توسعه هوش مصنوعی در آینده باید بر هوش اجتماعی - آموزش هوش مصنوعی برای همکاری، همدلی و عمل اخلاقی - و نه فقط بر بهبود مهارتهای منطق و استدلال آنها تمرکز کند.
طبق گزارش سایت ساینس، لی میگوید: اگر جامعه ما چیزی بیش از مجموعهای از افراد است، پس سیستمهای هوش مصنوعی که به ما کمک میکنند باید فراتر از بهینهسازی صرف برای منافع فردی باشند.
نتایج این پژوهش با عنوان «بخشش خودجوش و طمع محاسبهشده در مدلهای زبانی» در کنفرانس روشهای تجربی در پردازش زبان طبیعی (EMNLP) سال ۲۰۲۵ در سوژو، چین ارائه خواهد شد.
انتهای پیام


نظرات