• دوشنبه / ۲۹ اردیبهشت ۱۴۰۴ / ۰۸:۰۷
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404022920546
  • خبرنگار : 71931

خودسری هوش مصنوعی در ایجاد هنجارهای اجتماعی خاص خود

خودسری هوش مصنوعی در ایجاد هنجارهای اجتماعی خاص خود

دانشمندان در یک مطالعه جدید متوجه شدند «مدل‌های زبانی بزرگ»(LLM) در «هوش مصنوعی» می‌توانند به طور خودجوش هنجارهای اجتماعی مشترک را از طریق تعامل با یکدیگر توسعه دهند و به توافق زبانی برسند.

به گزارش ایسنا، پژوهشگران دریافته‌اند که مدل‌های هوش مصنوعی می‌توانند به طور خودجوش هنجارهای اجتماعی مشترک را از طریق تعامل با یکدیگر توسعه دهند. آنها ادعا می‌کنند که وقتی این عامل‌ها در گروه‌هایی با یکدیگر ارتباط برقرار می‌کنند، صرفاً از دستورالعمل‌ها پیروی نمی‌کنند یا الگوها را تکرار نمی‌کنند، بلکه خودسازماندهی می‌کنند و مانند جوامع انسانی در مورد هنجارهای زبانی به اجماع می‌رسند.

به نقل آی‌ای، «مدل‌های زبانی بزرگ»(LLM)، الگوریتم‌های قدرتمند یادگیری عمیق هستند که می‌توانند زبان انسانی را درک و تولید کنند که مشهورترین آنها تا به امروز «چت‌جی‌پی‌تی»(ChatGPT) است.

تیمی از «دانشگاه لندن» و «دانشگاه IT کپنهاگ»(Copenhagen) خاطرنشان کرد که این مدل‌های زبانی بزرگ هنگام برقراری ارتباط در گروه‌ها، تنها از دستورالعمل‌ها یا الگوها پیروی نمی‌کنند. 

عامل‌های تعامل‌کننده

«آریل فلینت آشری»(Ariel Flint Ashery)، نویسنده ارشد این مقاله می‌گوید: بیشتر تحقیقات تاکنون، مدل‌های زبانی بزرگ را به صورت مجزا بررسی کرده‌اند، اما سامانه‌های «هوش مصنوعی» در دنیای واقعی شامل عامل‌های تعامل‌کننده بسیاری خواهند بود. ما می‌خواستیم بدانیم که آیا این مدل‌ها می‌توانند رفتار خود را با ایجاد هنجارها و قوانین یک جامعه، هماهنگ کنند؟ پاسخ مثبت است و کاری که آنها با هم انجام می‌دهند را نمی‌توان به آنچه که به تنهایی انجام می‌دهند،‌ تقلیل داد.

یک چارچوب برای مطالعه هنجارهای اجتماعی در انسان‌ها، بر اساس مدل «بازی نام‌گذاری»(naming game) در شکل‌گیری آنها اقتباس گرفته شد.

نتایج تجربی

نتایج پژوهشگران، ظهور خودبه‌خودی هنجارهای اجتماعی پذیرفته‌شده جهانی را در جمعیت‌های غیرمتمرکز عامل‌های «مدل زبانی بزرگ» نشان می‌دهد.

دانشمندان این مطالعه می‌گویند: ما نشان می‌دهیم که چگونه سوگیری‌های جمعی قوی می‌توانند در طول این فرآیند پدیدار شوند، حتی زمانی که عامل‌ها به صورت فردی هیچ سوگیری از خود نشان نمی‌دهند. در نهایت، ما بررسی می‌کنیم که چگونه گروه‌های اقلیت متعهد از عامل‌های مدل زبانی بزرگ خصمانه می‌توانند با تحمیل هنجارهای اجتماعی جایگزین بر جمعیت بزرگ‌تر، تغییرات اجتماعی را به وجود آورند.

توسعه خودکار هنجارهای اجتماعی

دانشمندان تأکید کردند که این سامانه‌ها می‌توانند بدون برنامه‌ریزی صریح، هنجارهای اجتماعی را به طور خودکار توسعه دهند و این موضوع پیامدهایی برای طراحی این سامانه‌ها دارد که با ارزش‌های انسانی و اهداف اجتماعی همسو هستند و همسو باقی می‌مانند.

آنها در آزمایش‌های خود، گروه‌های عامل‌ مدل زبانی بزرگ از 24 تا 200 سامانه متغیر بودند و در هر آزمایش، دو عامل مدل زبانی بزرگ به طور تصادفی با یکدیگر جفت شدند و از آنها خواسته شد که یک نام را از یک مجموعه گزینه‌های مشترک انتخاب کنند. اگر هر دو عامل یک نام را انتخاب می‌کردند، پاداش می‌گرفتند. در غیر این صورت، جریمه می‌شدند و انتخاب‌های یکدیگر را مشاهده می‌کردند.

پژوهشگران همچنین فاش کردند که عامل‌ها فقط به حافظه محدودی از تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه هستند.

به گفته محققان، در طول بسیاری از این تعاملات، یک قرارداد نام‌گذاری مشترک می‌تواند به طور خودجوش در سراسر جمعیت، بدون هیچگونه هماهنگی ظهور کند و از شکل‌گیری هنجارها در فرهنگ‌ انسانی تقلید کند. نکته قابل توجه‌تر این است که این تیم سوگیری‌های جمعی را مشاهده کردند که نمی‌توان آنها را در عامل‌های فردی ردیابی کرد.

این یافته‌ها در مجله Science Advances منتشر شده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha