• یکشنبه / ۲۲ تیر ۱۴۰۴ / ۰۹:۴۸
  • دسته‌بندی: قم
  • کد خبر: 1404042213153
  • خبرنگار : 50455

به بهانه روز فناوری اطلاعات؛

نخبگان صرفاً مصرف‌کننده هوش مصنوعی نباشند

نخبگان صرفاً مصرف‌کننده هوش مصنوعی نباشند

ایسنا/قم دبیر ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه گفت: خواص و نخبگان همین‌که خود را صرفاً مصرف‌کننده تحولات فناوری ندانند و آگاه باشند که بازیگرانی تعیین‌کننده‌ در پیشرفت قاعده‌مند آن هستند، می‌تواند منشأ اتفاقات خوب و مفیدی برای کشور و چه بسا جهان باشد. به شرط آن‌که مسئولانه و فعال وارد عرصه شوند و بخواهند از هوش مصنوعی ابزاری برای پیشرفت انسانی و عدالت اجتماعی بسازند.

اطلاعات به عنوان یکی از ارزشمندترین دارایی‌های بشر شناخته می‌شود و فناوری، ابزاری قدرتمند برای پردازش و بهره‌برداری از این گنجینه است. روز فناوری و اطلاعات تنها یک مناسبت نمادین نیست، بلکه فرصتی برای تأمل درباره مسئولیت‌های اخلاقی، اجتماعی و فرهنگی ما در قبال استفاده از این ابزارهاست. امروزه، هوش مصنوعی به عنوان قلب تپنده تحولات دیجیتال، زندگی بشر را دگرگون کرده است و لذا رشد سریع هوش مصنوعی پرسش‌های مهمی را درباره اخلاق، حریم خصوصی، آینده اشتغال، تهدیدات امنیتی و سایبری، آزادی انتخاب فردی پیش روی ما قرار داده است. روز فناوری و اطلاعات یادآور این است که باید با نگاهی مسئولانه، از ظرفیت‌های این فناوری بهره ببریم. در همین راستا و با هدف آگاهی از آینده هوش مصنوعی با محمدرضا قاسمی دبیر ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه به گفت‌وگو پرداختیم. در ادامه متن این مصاحبه را می‌خوانیم:

ایسنا: ما در عصری هستیم که گام‌های نخستین حضور فناوری هوش مصنوعی به حساب می‌آید و تحولاتی که در همین سال‌های اخیر رقم خورده حاکی از آن است که در آینده نزدیک باید منتظر اتفاقات و تحولات شدیدتری باشیم. به نظر شما نخبگان و خواصّ جامعه نسبت به سناریوهای محتمل هوش مصنوعی چه وظایفی دارند؟

نخبگان در همه حوزه‌ها؛ علم، فناوری، سیاست و همچنین حوزه‌های فرهنگی و اجتماعی، همواره در خط مقدم تصمیم‌سازی درباره آینده جامعه قرار دارند که هوش مصنوعی هم قطعاً بخش عمده‌ای از آن است. نخبگان در این‌گونه امور مسئولیت دارند و بایستی به‌موقع و در زمان لازم وظایف اجتماعی خود را به انجام رسانند. اگر این گروه‌ها منفعل بمانند، مسیر توسعه هوش مصنوعی را صرفاً منطق بازار و منافع تجاری تعیین خواهد کرد و این به نفع جامعه بشری نیست.

ایسنا: می‌توان سناریوهای مشخصی برای آینده هوش مصنوعی ترسیم کرد؟

بله، آینده‌پژوهی سناریوهای متنوعی را برای این فناوری و رابطه آن با انسان ترسیم می‌کند. یکی از آن‌ها سناریوی پیشرفت کنترل‌شده هوش مصنوعی است. به این معنا که توسعه هوش مصنوعی با نظارت قانونی، اخلاقی و مشارکت نهادهای مدنی به انجام رسد و استفاده از هوش مصنوعی در بهبود آموزش، بهداشت، کشاورزی و کاهش فقر متمرکز شود و نخبگان با دولت‌ها همکاری ‌کنند تا تنظیم‌گری هوش مصنوعی شفاف و عدالت‌محور صورت پذیرد. نتیجه این روند پیشرفت همراه با اعتماد عمومی و افزایش کیفیت زندگی‌ست.

سناریوی دیگری که در این زمینه طرح شده و زیربنای اقتصادمحور دارد انحصار فناوری است. این‌که شرکت‌های بزرگ فناوری کنترل کامل توسعه و کاربرد هوش مصنوعی را به دست گیرند. به این ترتیب الگوریتم‌ها و داده‌ها در انحصار چند غول دیجیتال جهانی باقی‌ مانده و دولت‌ها و نخبگان یا منفعل خواهند بود و یا با منافع تجاری همسو می‌شوند. این اتفاق سبب افزایش نابرابری و وابستگی کشورهای کوچک و ضعیف خواهد شد.

پیش‌بینی دیگر این است که قوانین جهانی به‌درستی تنظیم نشود و همکاری‌های بین‌المللی قدرتمندی شکل نگیرد. در این صورت با سناریوی آشوب دیجیتال مواجه خواهیم شد، یعنی گسترش سوءاستفاده از هوش مصنوعی در جنگ سایبری، جعل عمیق (Deepfake)، تبلیغات دست‌کاری‌شده، جرائم دیجیتال، رقابت تسلیحاتی در زمینه هوش مصنوعی و این قبیل حوادث تلخ که در مجموع بی‌ثباتی سیاسی، افزایش تهدیدات امنیتی و بی‌اعتمادی عمومی به هوش مصنوعی را رقم خواهد زد.

ایسنا: آیا این احتمال وجود دارد که هوش مصنوعی از دست انسان خارج شود و مستقل عمل کند. چیزی که در بسیاری از داستان‌ها یا فیلم‌های علمی و تخیلی شاهد هستیم؟

این نیز یکی از سناریوهایی‌ست که در غرب مطرح شده است. Superintelligence بحث از خودمختاری هوش مصنوعی است. بر اساس این فرض که هوش مصنوعی از توان شناختی انسان فراتر رفته و تصمیم‌گیری مستقل پیدا کند که منشأ بحث‌های اخلاقی و فلسفی فراوانی درباره حقوق، اختیار و حتی شعور هوش مصنوعی شده است. آینده این سناریو معمولاً مبهم و بسیار حسّاس و شکننده است که یا می‌تواند منجر به رشدی خیره‌کننده و یا بحران وجودی برای بشر و حتی خود هوش مصنوعی شود.

ایسنا: تا این‌جا به چهار سناریو اشاره فرمودید. آیا موارد دیگری هم پیش‌بینی شده است، یا صرفاً همین‌ها مورد توجه قرار گرفته؟

بسیاری از اندیشکده‌های جهانی در حال مطالعه و بررسی درباره آینده هوش مصنوعی هستند. مقالات هم در این زمینه زیاد تولید می‌شود. بنابراین هر روز به سناریوهای محتمل اضافه می‌شود. اما دو مورد دیگر را می‌توانیم معرفی کنیم که وزن بیشتری در پیش‌بینی‌ها دارند.

یکی از آن‌ها وابستگی جامعه به هوش مصنوعی است. این از گزینه‌ها و سناریوهایی‌ست که زیاد مورد توجه قرار گرفته و حتی برخی باور دارند همین امروز هم در حال تحقّق است. وابستگی شدید به هوش مصنوعی در تصمیم‌گیری‌ها مهم‌ترین نشانه این سناریو است. از پزشکی گرفته، تا قضاوت، اقتصاد و سیاست. به این ترتیب با کاهش نقش تفکر انسانی و آزادی انتخاب فردی روبه‌رو خواهیم شد که پیامدهای اخلاقی و روانی بدی برای فرد و جامعه خواهد داشت. شاید در ابتدا به نظر برسد آسایش بالایی تأمین می‌کند، ولی با تهدیداتی برای اختیار، خلاقیت و تنوع فرهنگی همراه است که با ذات انسانی بشر در تعارض است.

سناریوی دیگر که آن نیز از گزینه‌های قوی‌ست بحث از بومی‌سازی هوش مصنوعی‌ست. طبیعتاً وقتی همگرایی جهانی حاصل نشود، کشورها الگوریتم‌ها، داده‌ها و سیاست‌های هوش مصنوعی را با توجه به ارزش‌های فرهنگی، زبانی و اجتماعی خود توسعه می‌دهند. در نتیجه رقابتی میان نظام‌های ارزشی در توسعه هوش مصنوعی پدید می‌آید، مانند: هوش مصنوعی اسلامی، هوش مصنوعی لیبرال، هوش مصنوعی دیکتاتورمآب، هوش مصنوعی صهیونیست و غیره. این افزایش تنوع در توسعه هوش مصنوعی با چالش‌هایی در همگرایی جهانی و تعامل‌پذیری ملّت‌ها پدید می‌آورد که می‌تواند به جنگ‌های بی‌پایان منجر شود. زیرا خود این هوش مصنوعی‌ها توصیه‌گر و تصمیم‌ساز برای نبردها خواهند بود.

در کل می‌توان تمام سناریوهای مطرح را در این سه دسته‌ قرار داد: «خوش‌بینانه» به معنای همزیستی انسان و هوش مصنوعی، «محتاطانه» که نظارت و کنترل شدید انسان بر هوش مصنوعی است و «بدبینانه» یعنی بروز خطرات جدّی برای انسان.

ایسنا: برخی از این سناریوها نگران‌کننده هستند. لطفاً نقش نخبگان را در این میان بیان بفرمایید. چه اقداماتی می‌توانند و بلکه باید انجام دهند؟

نخستین اقدام آگاهی‌بخشی عمومی‌ست. این خیلی مهم است که نخبگان علمی و فرهنگی با ساده‌سازی مفاهیم تخصّصی و پیچیده هوش مصنوعی کاری کنند تا مردم نسبت به فرصت‌ها و تهدیدهای هوش مصنوعی آگاه شوند. آموزش عمومی می‌تواند جلوی شکل‌گیری شایعات، ترس‌های افراطی یا پذیرش کورکورانه فناوری را بگیرد.

گام بعدی مشارکت در تدوین چارچوب‌های اخلاقی و قانونی برای هوش مصنوعی است. دولت‌ها نیاز به این مشارکت عمومی نخبگانی دارند. نخبگان حقوقی، فلسفی و دینی که از ارزش‌های بومی، انسانی و اخلاقی آگاه هستند و قادرند تا آن‌ها را در قالب دستورالعمل‌ها و مقررات تنظیم‌گر وارد سیاست‌گذاری کنند، نه فقط در داخل کشورها، بلکه در عرصه تعاملات بین‌المللی.

نخبگان باید همیشه در صحنه باشند و رویدادهای جهانی را رصد کنند. پایش و نظارت اجتماعی می‌تواند به‌موقع از بروز چالش‌ها و آسیب‌ها جلوگیری کند. با مطالبه شفافیت و نظارت بر عملکرد شرکت‌ها و نهادهای فعّال در زمینه توسعه و استفاده از هوش مصنوعی.

اقداماتی که نخبگان می‌توانند انجام دهند محدود به این موارد نیست. خواص و نخبگان همین‌که خود را صرفاً مصرف‌کننده تحولات فناوری ندانند و آگاه باشند که بازیگرانی تعیین‌کننده‌ در پیشرفت قاعده‌مند آن هستند، می‌تواند منشأ اتفاقات خوب و مفیدی برای کشور و چه بسا جهان باشد. به شرط آن‌که مسئولانه و فعال وارد عرصه شوند و بخواهند از هوش مصنوعی ابزاری برای پیشرفت انسانی و عدالت اجتماعی بسازند.

ایسنا: در پایان، نخستین گام در این زمینه را چه می‌دانید؟ از کجا باید شروع کرد؟

اولین کار ایجاد بسترهای گفت‌وگو میان نخبگان حوزه‌های مختلف است؛ از فناوری گرفته تا فلسفه، حقوق، جامعه‌شناسی، روانشناسی و تمامی حوزه‌های مرتبط با هوش مصنوعی. مهم است که در بحث هوش مصنوعی تنها بر مهارت فنی تمرکز نشود و مطالعات میان‌رشته‌ای در زمینه اخلاق، فلسفه فناوری، آینده‌پژوهی و سیاست‌گذاری به جریان بیافتد. دائمی شدن و پایدار ماندن این جریان گفتگوها می‌تواند به‌تدریج نتایج مثبتی را پدید آورد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha