به گزارش ایسنا، در قلب مدلهای هوش مصنوعی امروزی، مجموعههای عظیمی از دادههای آموزشی قرار دارد. متنها، ویدئوها و تصاویر ساختهشده توسط انسانها که برای آموزش مدلها بهکار میروند تا الگوها را شناسایی کرده و محتوا تولید کنند. بدون شک انسانها در حال آموزش سیستمهای هوش مصنوعی هستند، اما آیا هوش مصنوعی نیز در حال آموزش دادن ماست؟
به نقل از نیچر، تعداد رو به رشدی از مقالات گزارش میدهند که افراد تمایل دارند الگوهای نوشتاری، روشهای استدلال و حتی دیدگاهها را از مدلهای زبانی بزرگی (LLM) که استفاده میکنند، دریافت کنند. برخی پژوهشگران میگویند این تأثیر میتواند به نوعی یکنواختی در نوشتار انسانی منجر شود و هشدار میدهند که این اثر حتی ممکن است به متونی که توسط افرادی نوشته میشود که مستقیما از هوش مصنوعی استفاده نمیکنند نیز سرایت کند.
ژیوار سوراتی، دانشمند علوم رایانه در دانشگاه کالیفرنیای جنوبی در لسآنجلس و یکی از نویسندگان مقالهای در این مورد استدلال میکند که مدلهای زبانی بزرگ در حال همگنسازی گفتمان انسانی هستند و میگوید: اگر اطرافیان شما با این مدلها تعامل داشته باشند و سبک نوشتاری، دیدگاهها و شیوههای استدلال آنها را بپذیرند، در نهایت این الگوها آنقدر شما را احاطه میکنند که به نظر میرسد این روش، شکل اجتماعیِ درست برای بیان اطلاعات است.
با این حال، برخی دیگر معتقدند ذهن انسان ممکن است همچنان در برابر این اثر هموارکننده هوش مصنوعی مقاومت کند. در یک مطالعه که در ماه نوامبر به صورت پیشچاپ در سرور arXiv منتشر شد، نویسندگان گروههایی از نویسندگان را شناسایی کردند که «نشانههای سبکی متمایز و انسانی» خود را حفظ میکنند و احتمالاً اصالت را به سود کارایی ارائه شده توسط هوش مصنوعی ترجیح میدهند. این مطالعه هنوز داوری همتا نشده است.
بررسی عمیقتر موضوع
در یک پیشچاپ دیگر که سال گذشته در arXiv منتشر شد و هنوز داوری نشده، سوراتی و همکارانش پستهای ردیت، محتوای خبری و مطالعات پیشچاپ را پیش و پس از راهاندازی چت جیپیتی در سال ۲۰۲۲ تحلیل کردند. گروه پژوهشی دریافت که متنهای منتشرشده پس از عرضه این پلتفرم، از نظر سبک نوشتاری تنوع کمتری نسبت به متنهای قبل دارند.
در مقالهای جدید، نویسندگان استدلال میکنند که این پدیده بر دیدگاهها و شیوههای استدلال افراد نیز تأثیر میگذارد. آنها به یک پیشچاپ بدون داوری در سال ۲۰۲۳ اشاره میکنند که در آن شرکتکنندگان با مدلهای زبانیای تعامل داشتند که دیدگاههای مثبت یا منفی درباره شبکههای اجتماعی بیان میکردند. پس از این مواجهه، دیدگاههای خود شرکتکنندگان به سمت دیدگاههای تولیدشده توسط مدلها تغییر کرد.
اولیور هاوزر، پژوهشگر اقتصاد و هوش مصنوعی در دانشگاه اکستر بریتانیا، میگوید نویسندگان نکته قابل قبولی مطرح میکنند که افراد میتوانند از هوش مصنوعی سود ببرند و آن این است که به شما کمک میکند بهتر بنویسید و برای دیگران قابلفهمتر باشید. اما او هشدار میدهد: بهمحض اینکه این پذیرش فراگیر شود، این جمع است که بیشترین آسیب را میبیند.
ورود به عرصه سیاست
در مطالعهای که به تازگی در مجله Science Advances منتشر شده، پژوهشگران دریافتند که دیدگاههای افراد درباره مسائل اجتماعی شروع به بازتاب دیدگاههایی میکند که از یک ابزار هوش مصنوعی دریافت کردهاند. شرکتکنندگان از دستیارهای هوش مصنوعی برای نوشتن درباره موضوعات اجتماعی-سیاسی مانند مجازات اعدام استفاده کردند. پس از آن، نگرشهای آنها بیشتر به آنچه مدلهای زبانی نوشته بودند در مقایسه با گروه کنترل که از هوش مصنوعی استفاده نکرده بودند، شبیه شد.
استرلینگ ویلیامز-سسی، یکی از نویسندگان این مطالعه و دانشمند اطلاعات در دانشگاه کرنل در ایتاکا، نیویورک، میگوید این اثر میتواند در نهایت تنوع دیدگاههای سیاسی را نیز کاهش دهد. البته میزان این تأثیر به گرایشهایی بستگی دارد که مدلهای مختلف زبانی از خود نشان میدهند.
نکته مهم این است که شرکتکنندگان متوجه نشدند که تحت تأثیر چتباتها قرار گرفتهاند. حتی زمانی که به آنها گفته شد هوش مصنوعی ممکن است دیدگاههایشان را سوگیرانه کند، نتایج تغییری نکرد. ویلیامز-سسی میگوید: در حال حاضر نمیدانیم چگونه میتوان از این موضوع جلوگیری کرد. و احتمالاً راهحل به سادگی ارائه یک هشدار ساده به کاربران نیست.
هاوزر همچنین میگوید یکنواختی تحمیل شده توسط ابزارهای هوش مصنوعی میتواند تفکر علمی را نیز محدود کند: ممکن است یک ایده دیوانهوار را از دست بدهیم که در ابتدا غیرمنطقی به نظر میرسد، اما در نهایت همان چیزی است که برای یک جهش علمی به آن نیاز داریم. مقالهای که در ژانویه در نیچر منتشر شد نشان داد دانشمندانی که از ابزارهای هوش مصنوعی در پژوهشهای خود استفاده میکنند، نسبت به کسانی که استفاده نمیکنند، تمایل دارند روی مجموعه محدودتری از حوزهها تمرکز کنند.
سبک شخصی
با این حال، همه مطالعات نشان نمیدهند که استفاده از هوش مصنوعی به یکنواختی منجر میشود. مقالهای در ماه نوامبر گزارش داد که نویسندگان انسانی هنگام تعامل با هوش مصنوعی به شیوههای متفاوتی تکامل پیدا میکنند. نوشتار برخی افراد واقعاً به مدل هوش مصنوعی شبیهتر میشود؛ در حالی که دیگران سبک شخصی خود را حفظ میکنند یا حتی سبکی ایجاد میکنند که بیش از پیش از هوش مصنوعی متمایز است.
مطالعاتی که نگرانیهایی درباره از بین رفتن تنوع در نوشتار انسانی مطرح کردهاند، باعث تردید یون وان، پژوهشگر همکاری انسان و هوش مصنوعی در دانشگاه هیوستون-داونتاون تگزاس، شد. او میگوید: ما فکر کردیم شاید اینطور نباشد.
وان و همکارانش ۱۰ شخصیت هوش مصنوعی منحصربهفرد با پیشینههای فرهنگی و سبکهای فکری متفاوت ایجاد کردند که طرح داستانهایی تولید میکردند و شرکتکنندگان انسانی بر اساس آنها داستانهای خلاقانه مینوشتند. تحلیل نویسندگان که سال گذشته بهصورت پیشچاپ منتشر شد و هنوز داوری نشده، نشان داد که داستانهای حاصل، سطحی از تنوع مشابه داستانهایی را داشتند که بدون کمک هوش مصنوعی نوشته شده بودند. وان میگوید به دلیل همین پاسخهای متنوع، این شخصیتهای سفارشی میتوانند راهی برای کاهش یکنواختی باشند.
انتهای پیام
