به گزارش ایسنا و به نقل از فایننشال پست، روز شنبه رهبران کشورهای گروه هفت(G۷) درخواستهایی عمومی برای توسعه و پذیرش استانداردهای فنی برای قابل اعتماد کردن هوش مصنوعی مطرح کردند. آنها افزودند که بیم آن دارند که مدیریت این فناوری با رشد آن همگام نباشد.
رهبران ایالات متحده، ژاپن، آلمان، بریتانیا، فرانسه، ایتالیا، کانادا و اتحادیه اروپا در بیانیهای اعلام کردند که اگرچه رویکردها به چشم انداز مشترک و هدف هوش مصنوعی قابل اعتماد ممکن است متفاوت باشد، اما قوانین فناوریهای دیجیتال مانند هوش مصنوعی باید در راستای ارزشهای دموکراتیک مشترک ما رعایت شوند.
رهبران گروه هفت همچنین افزودند که باید فورا فرصتها و چالشهای هوش مصنوعی مولد را بررسی کنند.
این یک پیشرفت چندان جدید نیست. شرکت OpenAI که توسعه دهنده ربات گفتگوگر و نویسنده ChatGPT است، ایلان ماسک و گروهی از کارشناسان هوش مصنوعی را به واکنش واداشت تا نگرانیهای خود را در مورد این فناوری ابراز کنند و خواستار توقف شش ماهه توسعه هوش مصنوعیهای قدرتمندتر شوند.
در همین حال، سم آلتمن مدیر عامل OpenAI هفته گذشته در ایالات متحده در مقابل نمایندگان سنا به ارائه پارهای از توضیحات پرداخت و اظهار داشت که این کشور باید مجوز و الزامات آزمایشی را برای توسعه مدلهای هوش مصنوعی در نظر بگیرد.
رویکردهای مختلف، بینش یکسان
همه کشورها به صورت یکسان به هوش مصنوعی نزدیک نمیشوند. به عنوان مثال، چین سیاست بسیار محدود کنندهای دارد که به دنبال همسویی خدمات مولد مبتنی بر هوش مصنوعی با ارزشهای سوسیالیستی این کشور است.
رهبران گروه هفت بر این اختلافات اساسی صحه گذاشتند، اما توانستند در مورد توسعه یک مجمع وزیران به نام «فرآیند هوش مصنوعی هیروشیما» برای بحث در مورد موضوعات مربوط به هوش مصنوعی مولد تا پایان سال جاری به توافق برسند.
اورسولا فوندِر لاین رئیس کمیسیون اروپا گفت: ما میخواهیم سیستمهای هوش مصنوعی بدون توجه به منشاءشان، دقیق، قابل اعتماد، ایمن و بدون تبعیض باشند.
رهبران گروه هفت همچنین از سازمانهای بینالمللی مانند سازمان همکاری اقتصادی و توسعه خواستند تا تحلیلی را در مورد تأثیر این تحولات سیاست گذاری آغاز کنند.
اتحادیه اروپا و ایالات متحده قرار است نظرات خود را در مورد فناوریهای نوظهور هوش مصنوعی در شورای تجارت و فناوری در سوئد که از ۳۰ تا ۳۱ مه برگزار میشود، به اشتراک بگذارند.
انتهای پیام
نظرات