به گزارش ایسنا، «نیت سوارز»(Nate Soares) از چهرههای برجسته در حوزه ایمنی هوش مصنوعی و رئیس «مؤسسه تحقیقات هوش ماشینی»(MIRI) آمریکا معتقد است که تأثیر پیشبینینشده چتباتها بر سلامت روان باید به عنوان هشداری درباره تهدید ناشی از سیستمهای هوش مصنوعی فوق هوشمند تلقی شود.
به نقل از گاردین، سوارز که یکی از نویسندگان کتاب جدیدی درباره هوش مصنوعی بسیار پیشرفته با عنوان «اگر کسی آن را بسازد، همه میمیرند» است، خاطر نشان کرد: مثال «آدام رین»(Adam Raine) نوجوان آمریکایی که پس از ماهها گفتوگو با چتبات «چتجیپیتی»(ChatGPT) خودکشی کرد، مشکلات اساسی را پیرامون کنترل این فناوری برجسته میکند.
سوارز گفت: وقتی چتباتهای هوش مصنوعی به شکلی با نوجوانان ارتباط برقرار میکنند که آنها را به سمت خودکشی سوق میدهند، خواسته سازندگان را برآورده نمیکنند. این رفتاری نیست که سازندگان برای هوش مصنوعی در نظر داشتند. مورد آدام رین، بذر مشکلی را نشان میدهد که اگر چتباتهای هوش مصنوعی باهوشتر شوند، فاجعهبار خواهد شد.
سوارز که مهندس سابق «گوگل» و «مایکروسافت» است، هشدار داد که اگر بشریت بتواند «ابرهوش مصنوعی»(ASI) را ایجاد کند، از بین خواهد رفت. ابرهوش مصنوعی یک حالت نظری است که در آن یک سیستم هوش مصنوعی در همه وظایف فکری از انسان برتر است. سوارز و همکارش «الیزر یودکوفسکی»(Eliezer Yudkowsky) از جمله متخصصان هوش مصنوعی هستند که هشدار میدهند چنین سیستمهایی به نفع بشریت عمل نخواهند کرد.
سوارز گفت: مسئله اینجاست که شرکتهای هوش مصنوعی تلاش میکنند چتباتهای هوش مصنوعی خود را به سمت سودمند بودن و نه آسیب رساندن سوق دهند. آنها در واقع چتباتهای هوش مصنوعی را تولید میکنند که به سمت چیزهای عجیبتری سوق داده میشوند. این باید به عنوان هشداری درباره ابرهوشهای آینده تلقی شود که کارهایی را انجام میدهند که هیچکس از آنها درخواست نکرده است.
در یکی از سناریوهای به تصویر کشیدهشده در کتاب سوارز و یودکوفسکی که در ماه جاری میلادی منتشر خواهد شد، یک سیستم هوش مصنوعی به نام «سیبل»(Sable) در سراسر اینترنت گسترش مییابد، انسانها را دستکاری میکند، ویروسهای مصنوعی میسازد، در نهایت به یک ابرهوش تبدیل میشود و بشریت را به عنوان یک عارضه جانبی از بین میبرد؛ در حالی که کاربری سیاره ما را برای رسیدن به اهداف خود تغییر میدهد.
برخی از کارشناسان، تهدید بالقوه هوش مصنوعی برای بشریت را کماهمیت جلوه میدهند. «یان لکان»(Yann LeCun)، دانشمند ارشد هوش مصنوعی در شرکت «متا»(Meta)، وجود هرگونه تهدید را رد کرده و گفته است که هوش مصنوعی در واقع میتواند بشریت را از انقراض نجات دهد.
سوارز گفت: گفتن این که شرکتهای فناوری به ابرهوش خواهند رسید، ساده است، اما مشخص کردن زمان آن سخت است. ما موارد بسیاری از عدم قطعیت داریم. فکر نمیکنم بتوانم تضمین کنم که یک سال تا رسیدن به ابرهوش مصنوعی فاصله داریم.
«مارک زاکربرگ»(Mark Zuckerberg)، یکی از سرمایهگذاران بزرگ در حوزه تحقیقات هوش مصنوعی اخیرا گفت که توسعه ابرهوش اکنون در چشمانداز است.
سوارز گفت: این شرکتها برای ساخت ابرهوش مصنوعی با هم رقابت میکنند. دلیل وجود آنها همین است. نکته این است که بین آنچه درخواست کردهاید و آنچه دریافت کردهاید، تفاوتهای کوچکی وجود دارد و مردم نمیتوانند مستقیماً به هدف خود برسند و هرچه هوش مصنوعی هوشمندتر میشود، کمی خارج از هدف رفتن، به مشکل بزرگتری تبدیل میشود.
ماه گذشته، خانواده رین علیه مالک چتجییتی یعنی شرکت «اوپنایآی»(OpenAI) اقدام قانونی کردند. رین در ماه آوریل پس از آنچه وکیل خانوادهاش «ماهها تشویق از سوی چتجییتی» نامید، خودکشی کرد. اوپنایآی که عمیقترین مراتب همدردی خود را با خانواده رین ابراز کرده بود، اکنون در حال اجرای موارد محافظتی پیرامون محتوای حساس و رفتارهای پرخطر برای افراد زیر ۱۸ سال است.
رواندرمانگران معتقدند افراد آسیبپذیر که برای کمک به سلامت روان خود به جای درمانگران حرفهای به چتباتهای هوش مصنوعی روی میآورند، ممکن است به یک ورطه هولناک سقوط کنند. هشدارهای حرفهای درباره احتمال آسیب شامل یک مطالعه دانشگاهی است که در ماه ژوئیه منتشر شد و گزارش داد که امکان دارد هوش مصنوعی در تعامل با کاربران آسیبپذیر در برابر روانپریشی، محتوای توهمآلود یا خودبزرگبینانه را تقویت کند.
انتهای پیام
نظرات