• سه‌شنبه / ۳۱ فروردین ۱۴۰۰ / ۱۲:۴۲
  • دسته‌بندی: علم و فناوری جهان
  • کد خبر: 1400013118772
  • خبرنگار : 71604

هوش مصنوعی، نظریه‌های توطئه‌آمیز در مورد کووید-۱۹ را شناسایی می‌کند

هوش مصنوعی، نظریه‌های توطئه‌آمیز در مورد کووید-۱۹ را شناسایی می‌کند

پژوهشگران آمریکایی، یک مدل مبتنی بر هوش مصنوعی ابداع کرده‌اند که می‌تواند به ردیابی و شناسایی نظریه‌های توطئه‌آمیز در مورد کووید-۱۹ بپردازد.

به گزارش ایسنا و به نقل از نیوزوایز، یک برنامه جدید مبتنی بر یادگیری ماشینی می‌تواند نظریه‌های توطئه‌آمیز در مورد کووید-۱۹ را در فضای مجازی به دقت تشخیص دهد و نحوه تکامل آنها را به مرور زمان مشخص کند. شاید این ابزار روزی به مقامات بهداشت عمومی کمک کند تا به صورت آنلاین به مقابله با اطلاعات نادرست بپردازند.

"کورتنی شلی"(Courtney Shelley)، از پژوهشگران "آزمایشگاه ملی لس آلاموس"(LANL) آمریکا و از اعضای این گروه پژوهشی گفت: بسیاری از پژوهش‌های صورت گرفته در حوزه یادگیری ماشینی که به اطلاعات اشتباه در فضای مجازی مربوط هستند، بر شناسایی انواع متفاوت نظریه‌های توطئه‌آمیز تمرکز دارند. ما تصمیم گرفتیم تا درک منسجم‌تری در مورد نحوه تغییر اطلاعات اشتباه ایجاد کنیم زیرا مردم معمولا تمایل دارند تا نخستین پیامی را که با آن رو به رو می‌شوند، باور کنند. شاید مقامات بهداشت عمومی روزی بتوانند به بررسی نظریه‌های توطئه‌آمیزی بپردازند که در شبکه‌های اجتماعی جلب توجه می‌کنند.

پژوهشگران در این پروژه، از داده‌های در دسترس و ناشناس توئیتر برای مشخص کردن نظریه‌های توطئه‌آمیز در مورد کووید-۱۹ استفاده کردند. آنها به بررسی گسترش کووید-۱۹، احتمال مهندسی زیستی این ویروس و ساخته شدن آن در آزمایشگاه و همچنین میزان خطر واکسن‌های کووید-۱۹ که در مرحله تولید هستند، پرداختند.

"داکس گرتز"(Dax Gerts)، از پژوهشگران این پروژه گفت: ما داده‌های مربوط به حدود ۱/۸ میلیون توئیت با کلیدواژه کووید-۱۹ را بررسی کردیم.

پژوهشگران با استفاده از داده‌های جمع‌آوری شده در مورد نظریه‌ها، مدل‌های تصادفی یادگیری ماشینی را ساختند که توئیت‌ها را به عنوان اطلاعات اشتباه مربوط به کووید-۱۹ دسته‌بندی می‌کنند.

گرتز ادامه داد: این کار به ما امکان می‌دهد تا نحوه صحبت افراد در مورد نظریه‌های توطئه‌آمیز را در شبکه‌های اجتماعی ببینیم و تغییرات را به مرور زمان مشاهده کنیم.

این پژوهش نشان داد که توئیت‌های حاوی اطلاعات اشتباه در مقایسه با توئیت‌های اشتباه، احساسات منفی بیشتری را شامل می‌شوند. این توئیت‌ها به مرور زمان تکامل می‌یابند و علاوه بر رخدادهای واقعی، جزئیاتی از نظریه‌های غیر مرتبط را نیز در بر می‌گیرند.

همچنین، این پژوهش نشان داد که شاید بتوان از یک روش یادگیری تحت نظارت، برای شناسایی خودکار نظریه‌های توطئه‌آمیز استفاده کرد و شاید بتوان با کمک یک روش یادگیری بدون نظارت، به بررسی تغییرات صورت گرفته در اهمیت واژه‌های موجود در هر نظریه پرداخت.

شلی گفت: این موضوع برای مقامات بهداشت عمومی مهم است که بدانند چگونه نظریه‌های توطئه‌آمیز به مرور زمان تکامل می‌یابند و جلب توجه می‌کنند. اگر این گونه نباشد، آنها با خطر تبلیغ ناخواسته نظریه‌های توطئه‌آمیز رو به رو می‌شوند؛ بنابراین دانستن این موضوع که نظریه‌های توطئه‌آمیز چگونه تغییر می‌کنند، برای ارائه راهبردی در مواجهه با آنها اهمیت دارد.

این پژوهش، در "Journal of Medical Internet Research" به چاپ رسید.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.