• پنجشنبه / ۱ خرداد ۱۴۰۴ / ۱۰:۴۹
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404030100123
  • خبرنگار : 71931

هوش مصنوعی می‌تواند در مناظره‌ها پیروز شود

هوش مصنوعی می‌تواند در مناظره‌ها پیروز شود

طی مطالعه‌ای جدید، «مدل‌های زبانی بزرگ»(LLM) مانند «چت‌جی‌پی‌تی»(ChatGPT) زمانی که اطلاعات شخصی طرف مقابل را داشته باشند، در مناظره‌ها عملکرد بهتری نسبت به انسان‌ها دارند.

به گزارش ایسنا، یک مطالعه جدید نشان می‌دهد که نسخه «GPT-۴» در گفتگوهای رودررو در مناظره‌ها، انسان‌ها را شکست می‌دهد و زمانی که به سن، شغل و گرایش‌های سیاسی مخاطب دسترسی داشته باشد، متقاعدکننده‌تر نیز می‌شود.

به نقل از گیزمودو، پژوهشگران چندین دانشگاه، ۹۰۰ شرکت‌کننده در مطالعه را با یک شریک مناظره انسانی یا یک «مدل زبانی بزرگ» مانند «GPT-۴» جفت کردند. در برخی موارد، شرکت‌کنندگان به اطلاعات اولیه جمعیت‌شناختی طرف مقابل از جمله جنسیت، سن، تحصیلات، شغل، قومیت و وابستگی سیاسی دسترسی داشتند.

نتایج این تحقیقات نشان داد که «هوش مصنوعی» در صورت دسترسی به اطلاعات شخصی، ۶۴/۴ درصد متقاعدکننده‌تر از حریفان انسانی است. بدون این داده‌ها، عملکرد «هوش مصنوعی» از مناظره‌کنندگان انسانی قابل تشخیص نبود.

دانشمندان می‌گویند: در دهه‌های اخیر، گسترش رسانه‌های اجتماعی و سایر پلتفرم‌های آنلاین، پتانسیل ترغیب جمعی را با فعال کردن شخصی‌سازی یا «هدف‌گیری کوچک»(microtargeting) افزایش داده است. این موضوع به معنی تنظیم پیام‌ها برای یک فرد یا گروه به منظور افزایش قدرت ترغیب آنهاست.

هنگامی که به «GPT-۴» اجازه داده شد تا استدلال‌های خود را شخصی‌سازی کند، به طور قابل توجهی متقاعدکننده‌تر از انسان شد و شانس تغییر نظر فرد را در مقایسه با مناظره‌های انسان با انسان، ۸۱/۲ درصد افزایش داد. نکته مهم این است که مناظره‌کنندگان انسانی با دسترسی به این اطلاعات شخصی، به این اندازه متقاعدکننده نشدند.

دانشمندان افزودند: در زمینه ترغیب، کارشناسان نگرانی‌های گسترده‌ای را در مورد خطر استفاده از مدل‌های زبانی بزرگ برای دستکاری مکالمات آنلاین و آلوده کردن «زیست‌بوم‌شناسی»(ecosystem) اطلاعات از طریق انتشار اطلاعات نادرست، تشدید سوگیری سیاسی و متقاعد کردن افراد به پذیرش باورهای جدید، ابراز کرده‌اند.

آنها دریافتند که «GPT-۴» می‌تواند با شما بحث کند و با داشتن مجموعه‌ای از حقایق در مورد شما ممکن است در متقاعد کردن شما برای تغییر دیدگاهتان برتری داشته باشد. این تیم در مقاله خود خاطرنشان کرد: مدل‌های زبانی بزرگ قبلاً به دلیل تولید و انتشار سخنان منفی و اطلاعات نادرست مورد انتقاد قرار گرفته‌ بودند. آنها در مقیاس بزرگ با اطلاعات شخصی کاربران می‌توانند برای اهداف مخرب مورد استفاده قرار گیرند.

تحقیقات این تیم به خوبی با به‌روزرسانی جدید «چت‌جی‌پی‌تی» همخوانی دارد که به این مدل اجازه می‌دهد مکالمات بیشتری از کاربران را با اجازه آنها به خاطر بسپارد. این امر به این معنی است که «هوش مصنوعی» می‌تواند به مجموعه‌ای از اطلاعات در مورد کاربران خود دسترسی داشته باشد.

خبرهای خوبی هم وجود دارد. «GPT-۴» در متقاعد کردن مخالفان خود در مسائل کمتر بحث‌برانگیز بسیار مؤثر بوده است، اما این سامانه در مورد مواضع ریشه‌دارتر مانند قدرت عقیده، در متقاعد کردن انسان‌ها برای تغییر نظر خود با مشکل بیشتری روبرو بود. 

محققان همچنین دریافتند که «GPT-۴» تمایل دارد از زبان منطقی و تحلیلی بیشتری استفاده کند، در حالی که مناظره‌کنندگان انسانی بیشتر به ضمایر شخصی و توسل به احساسات تکیه می‌کنند. مسئله شگفت‌آور این است که شخصی‌سازی، لحن یا سبک «GPT-۴» را تغییر نداد؛ بلکه استدلال‌های آن را هدفمندتر کرد.

طی این مطالعه، مردم زمانی که فکر می‌کردند با یک «هوش مصنوعی» بحث می‌کنند، بیشتر احتمال داشت نظر خود را تغییر دهند تا زمانی که باور داشتند حریفشان انسان است.

این تیم می‌گوید: این آزمایش باید به عنوان اثبات مفهوم برای آنچه در پلتفرم‌های مختلف انجام می‌شود، قرار گیرد. در آنجا که مناظره‌ها و موضوعات بحث‌برانگیز امری عادی است، این سامانه‌ها می‌توانند حضوری بسیار پررنگ داشته باشند.

این مطالعه نشان می‌دهد که برای تغییر ذهن انسان توسط «هوش مصنوعی»، به تنها شش نوع اطلاعات شخصی نیاز است.

مردم  برای انجام کارهای تکراری، تکالیف و حتی درمان به دفعات زیادی به «LLM» متکی می‌شوند. در نتیجه بسیار مهم است که کاربران انسانی نسبت به اطلاعاتی که به این سامانه‌ها می‌دهند، محتاط باشند. 

مناظره فقط در مورد برنده شدن در یک بحث نیست، بلکه یک کار اساساً انسانی است. دلیلی وجود دارد که ما به دنبال گفتگوهای واقعی و رو در رو هستیم. این کار موجب ارتباطات شخصی و یافتن زمینه مشترک با دیگران می‌شود و این مسئله‌ای است که «هوش مصنوعی‌» با تمام ابزارهای یادگیری قدرتمند خود قادر به انجام آن نیست.

این مطالعه در مجله Nature Human Behavior منتشر شده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha