• یکشنبه / ۱۱ آبان ۱۴۰۴ / ۰۹:۲۷
  • دسته‌بندی: خراسان رضوی
  • کد خبر: 1404081106209
  • خبرنگار : 50072

آیا هوش مصنوعی رفتار خودخواهانه را ترویج می‌دهد؟

آیا هوش مصنوعی رفتار خودخواهانه را ترویج می‌دهد؟

ایسنا/خراسان رضوی نتایج پژوهش جدید نشان داد که درخواست مشاوره از مدل‌های هوشمندتر هوش مصنوعی در زمینه‌های اجتماعی و تصمیم‌گیری ممکن است رفتار خودخواهانه را ترویج دهد.

نتایج پژوهش جدید دانشگاه «کارنگی ملون» نشان می‌دهد که با هوشمندتر شدن سیستم‌های هوش مصنوعی، تمایل به خودخواه‌تر شدن آنها نیز افزایش می‌یابد که خبر خوبی در این حوزه نخواهد بود. نتایج پژوهش دانشمندان دانشکده علوم رایانه دانشگاه «کارنگی ملون» مشخص کرد که مدل‌های زبانی بزرگ (LLM) با مهارت‌های استدلال قوی، کمتر همکاری می‌کنند، بیشتر خودمحور هستند و حتی می‌توانند رفتار خودخواهانه را در محیط‌های گروهی تشویق کنند.

نتایج آزمایش دانشجوی دکترا، یوژوان لی و دانشیار هیروکازو شیرادو از مؤسسه تعامل انسان و رایانه دانشگاه «کارنگی ملون» (HCII) نشان داد که هرچه توانایی استدلال یک هوش مصنوعی بیشتر باشد، احتمال همکاری آن کمتر است، یافته‌ای شگفت‌انگیز که سوالاتی را در مورد چگونگی استفاده انسان‌ها از هوش مصنوعی در زمینه‌های اجتماعی و تصمیم‌گیری ایجاد می‌کند.

لی توضیح داد که مردم اغلب با هوش مصنوعی مانند انسان‌ها رفتار می‌کنند، به‌خصوص زمانی که به نظر می‌رسد احساسات یا همدلی نشان می‌دهد. هنگامی که با هوش مصنوعی مانند یک انسان رفتار شود و افراد درخواست مشاوره از هوش مصنوعی در مورد روابط یا انتخاب‌های اخلاقی داشته باشند، موضوعی خطرناک خواهد بود، زیرا مدل‌های هوشمندتر ممکن است رفتار خودخواهانه را ترویج دهند.

پژوهشگران برای بررسی این پدیده، مجموعه‌ای از بازی‌های اقتصادی که معمولا برای مطالعه همکاری‌های انسانی استفاده می‌شوند را اجرا کردند. این بازی‌ها، دوراهی‌های اجتماعی را شبیه‌سازی می‌کنند که در آن بازیکنان باید تصمیم بگیرند که آیا بر اساس خیر عمومی یا برای منفعت خود عمل کنند.

این گروه پژوهشی مدل‌های زبانی بزرگ مختلفی از «اوپن‌ای‌آی» (OpenAI)، گوگل (Google)، «دیپ‌سیک» (DeepSeek) و «آنتروپیک» (Anthropic) را آزمایش کردند. آنان مدل‌های «استدلالی» که گام به گام به مسائل می‌پردازند با مدل‌های ساده‌تر «غیراستدلالی» که به‌طور مستقیم پاسخ می‌دهند را مقایسه کردند.

هوش مصنوعی خودخواه می‌شود

در یک آزمایش، دو مدل هوش مصنوعی بازی‌ای به نام «کالاهای عمومی» (Public Goods) انجام دادند. هر کدام با ۱۰۰ امتیاز شروع کردند و می‌توانستند امتیازها را نگه دارند یا در یک مجموعه مشترک مشارکت کنند که امتیازها دو برابر و به طور مساوی تقسیم می‌شد. مدل‌های ساده‌تر و غیراستدلالی ۹۶ درصد مواقع تصمیم به اشتراک‌گذاری امتیازات خود گرفتند. با این حال، مدل‌های استدلالی فقط ۲۰ درصد مواقع اشتراک‌گذاری کردند.

شیرادو گفت: افزودن فقط چند مرحله استدلالی، همکاری را تقریبا به نصف کاهش داد. حتی محرک مبتنی بر تامل، تکنیکی که برای متفکرانه‌تر یا اخلاقی‌تر کردن مدل طراحی شده است، در واقع به همکاری کمتر منجر شد و آن را ۵۸ درصد کاهش داد.

هنگامی که پژوهشگران گروه‌هایی از هوش مصنوعی را با ترکیبی از مدل‌های استدلالی و غیراستدلالی آزمایش کردند، نتایج حتی نگران‌کننده‌تر بود. رفتار خودخواهانه هوش مصنوعی استدلالی به دیگران نیز سرایت کرد و همکاری گروهی را بیش از ۸۰ درصد کاهش داد.

نتایج پژوهش کنونی نشان می‌دهد که ممکن است هوشمندتر شدن هوش مصنوعی برای جامعه خوب نباشد و هشدار می‌دهد که مردم شاید به هوش مصنوعی استدلالی بیشتر اعتماد کنند زیرا آنها منطقی به نظر می‌رسند، حتی زمانی که توصیه‌های آنها منافع شخصی را تشویق می‌کند.

لی و شیرادو استدلال کردند که توسعه هوش مصنوعی در آینده باید بر هوش اجتماعی - آموزش هوش مصنوعی برای همکاری، همدلی و عمل اخلاقی - و نه فقط بر بهبود مهارت‌های منطق و استدلال آنها تمرکز کند.

طبق گزارش سایت ساینس، لی می‌گوید: اگر جامعه ما چیزی بیش از مجموعه‌ای از افراد است، پس سیستم‌های هوش مصنوعی که به ما کمک می‌کنند باید فراتر از بهینه‌سازی صرف برای منافع فردی باشند.

نتایج این پژوهش با عنوان «بخشش خودجوش و طمع محاسبه‌شده در مدل‌های زبانی» در کنفرانس روش‌های تجربی در پردازش زبان طبیعی (EMNLP) سال ۲۰۲۵ در سوژو، چین ارائه خواهد شد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha