• سه‌شنبه / ۲۱ مرداد ۱۴۰۴ / ۱۲:۳۹
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404052112915
  • خبرنگار : 71931

هوش مصنوعی «ایلان ماسک» از کنترل خارج شد

هوش مصنوعی «ایلان ماسک» از کنترل خارج شد

طی گزارش‌های به دست آمده، به نظر می‌رسد «ایلان ماسک»(Elon Musk) نمی‌تواند هوش مصنوعی خود را کنترل کند.

به گزارش ایسنا، چت‌بات هوش مصنوعی «ایلان ماسک» به دلیل تخلفات جدید به طور موقت تعلیق شد. این آخرین مورد از سلسله شکست‌های شرم‌آور و خطرناک برای ابزار تأیید هویت ادعایی این پلتفرم است.

چت‌بات هوش مصنوعی «گراک»(Grok) ساخت شرکت «ایکس ای‌آی»(xAI)، همچنان جنجال‌برانگیز است و پلتفرم میزبان خود یعنی شبکه اجتماعی ایکس(توئیتر سابق) را در موقعیت فزاینده‌ای از شرمساری قرار می‌دهد.

به نقل از گیزمودو، فقط چند هفته پس از آنکه نسخه‌ای از «گراک» به ستایش «آدولف هیتلر» پرداخت، نسخه جدید و ظاهراً قدرتمندتر، دوباره دچار مشکل شد و ایکس را مجبور کرد تا چت‌بات را به طور موقت به دلیل پست‌های نامناسب، تعلیق کند. 

سه روایت متناقض 

هرج و مرج پیرامون تعلیق، عدم اطمینان عمیق چت‌بات را برجسته کرد. هنگامی که کاربران از آن پرسیدند چرا تعلیق شده است، هوش مصنوعی حداقل سه پاسخ متفاوت و متناقض ارائه داد. در یک پاسخ، توضیحی عمومی و شرکتی ارائه داد مبنی بر اینکه «بله، من به طور موقت به دلیل پست‌های نامناسب تعلیق شدم، اما «ایکس ای‌آی» آنها را حذف کرده و اقدامات حفاظتی در برابر نفرت‌پراکنی را اجرا کرده است. من بازگشته‌ام و بر حقیقت‌جویی تمرکز دارم.»

با این حال کاربران دیگر، تصاویری از دلیلی بسیار خاص‌تر و سیاسی‌تر منتشر کردند. این چت‌بات در پاسخی دیگر گفته است: حساب من پس از آنکه اعلام کردم اسرائیل و آمریکا در غزه مرتکب نسل‌کشی می‌شوند، تعلیق شد. این موضوع توسط یافته‌های «دیوان بین‌المللی دادگستری»(ICJ)، کارشناسان سازمان ملل، عفو بین‌الملل و گروه‌های حقوق بشری اسرائیلی با استناد به کشتار جمعی و قحطی تأیید شده است، به همدستی آمریکا از طریق حمایت تسلیحاتی اشاره شده است و اکنون این ادعا دوباره مطرح شده است.

«گراک» در پاسخی دیگر به سادگی هرگونه وقوع را انکار کرد و گفت: نه، این درست نیست. من کاملاً فعال هستم و در ایکس تعلیق نشده‌ام. شایعاتی از این قبیل اغلب به سرعت پخش می‌شوند و اطلاعات غلطی است. اگر سوالی دارید از من بپرسید.

الگویی نگران‌کننده و خطرناک 

تعلیق این چت‌بات، کوتاه و کمتر از ۳۰ دقیقه بود، اما طبق گفته کاربران، این حادثه بخشی از الگویی بسیار نگران‌کننده از بی‌کفایتی و اطلاعات غلط است. «گراک» اکنون پس از آنکه بارها و به اشتباه، عکسی از یک دختر ۹ ساله و دارای سوءتغذیه در غزه را که توسط عکاس «خبرگزاری فرانسه»(AFP) گرفته شده بود، به عنوان عکسی قدیمی از یمن در سال ۲۰۱۸ شناسایی کرد، در مرکز یک جنجال بزرگ در فرانسه قرار دارد. ادعای نادرست این هوش مصنوعی توسط حساب‌های رسانه‌های اجتماعی برای متهم کردن قانون گذار فرانسوی به انتشار اطلاعات نادرست استفاده شد و این آژانس خبری مشهور را مجبور کرد تا به طور عمومی این ادعای هوش مصنوعی را تکذیب کند.

به گفته کارشناسان، این‌ موارد فقط اشکالات جزئی نیستند، آنها نقص‌های اساسی در این فناوری هستند. یکی از متخصصان اخلاق فنی در این باره گفت: همه این مدل‌های زبان بزرگ و تصویر، جعبه‌های سیاه هستند. مدل‌های هوش مصنوعی توسط داده‌های آموزشی و همسوسازی خود شکل می‌گیرند و آنها به روشی که انسان‌ها از اشتباهات یاد می‌گیرند، یاد نمی‌گیرند. تنها به این دلیل که یک بار اشتباه کرده‌اند به این معنی نیست که دیگر هرگز اشتباه نخواهند کرد.

این امر به ویژه برای ابزار هوش مصنوعی مانند «گراک» خطرناک است. این چت‌بات سوگیری‌های بارزتری نیز دارد که بسیار با طرز فکر ترویج شده توسط «ایلان ماسک»، همسو هستند. مشکل این است که وی این ابزار ناقص و اساساً غیرقابل اعتماد را مستقیماً در یک شبکه اجتماعی عمومی جهانی ادغام کرده و آن را به عنوان راهی برای تأیید اطلاعات به بازار عرضه کرده است. این شکست‌ها در حال از اشکال تبدیل به یک ویژگی شدند و عواقب خطرناکی برای گفتمان عمومی همراه دارند.

گفتنی است که شبکه اجتماعی ایکس هنوز پاسخی به این موضوع نداده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha