• چهارشنبه / ۱۱ تیر ۱۴۰۴ / ۱۲:۰۶
  • دسته‌بندی: اصفهان
  • کد خبر: 1404041107100
  • خبرنگار : 51012

هوش مصنوعی در بحران، زیر سایه داده‌های نادرست و بی‌اعتمادی

هوش مصنوعی در بحران، زیر سایه داده‌های نادرست و بی‌اعتمادی

ایسنا/اصفهان پژوهشگر و مدرس هوش مصنوعی گفت: کیفیت پایین داده‌ها، زیرساخت‌های فرسوده، سوگیری الگوریتمی و بی‌اعتمادی اجتماعی از مهم‌ترین موانع به‌کارگیری مؤثر هوش مصنوعی در مدیریت بحران هستند.

حسین امامی در گفت‌وگو با ایسنا اظهارکرد: بزرگ‌ترین چالش فنی و زیرساختی در پیاده‌سازی سامانه‌های هوش مصنوعی برای مدیریت بحران، کیفیت داده‌هاست. در اوج بحران مانند جنگ، سیل یا زلزله، داده‌های ورودی به سامانه‌ها پراکنده، ناقص یا حتی اشتباه هستند. حتی پیشرفته‌ترین الگوریتم‌ها بدون داده معتبر، دچار خطا می‌شوند. در واقع ضرب‌المثلی در علوم داده مطرح می‌کنند با عنوان اینکه «Garbage In, Garbage Out» اینجا کاملاً مصداق دارد؛ یعنی اگر اطلاعات غلط یا بی‌کیفیت وارد یک سیستم کنید، نباید انتظار خروجی درست یا مفید داشته باشید، همچنین بسیاری از زیرساخت‌ها قدیمی‌اند و یکپارچه‌سازی آن‌ها با فناوری‌های هوش مصنوعی نیازمند بازنگری اساسی و بودجه قابل توجه لازم دارد. برخی سیستم‌ها هنوز به‌روز نیستند و همین، سرعت واکنش و دقت تصمیم‌گیری را کاهش می‌دهد. حتی اگر زیرساخت خوب باشد، بحران‌ها ذاتاً غیرقابل پیش‌بینی‌اند. الگوریتم‌ها معمولاً روی داده‌های گذشته آموزش دیده‌اند و اگر ناگهان مسیر بحران عوض شود(مثلاً آتش‌سوزی با وزش باد تغییر مسیر دهد)، مدل‌ها دیر واکنش نشان می‌دهند.

وی درباره موانع قانونی، اخلاقی یا اجتماعی در به‌کارگیری هوش مصنوعی در بحران‌ها افزود: یکی از چالش‌های اصلی، سوگیری الگوریتمی است. اگر مدل بر پایه داده‌های قبلی آموزش دیده باشد، ممکن است در توزیع منابع به گروه‌های خاصی تبعیض نشان دهد؛ مثلاً برخی مناطق کمتر برخوردار به اندازه کافی امداد دریافت نکنند.

پژوهشگر و مدرس هوش مصنوعی ادامه داد: نگرانی درباره حریم خصوصی نیز جدی است. وقتی اطلاعات مکانی افراد یا داده‌های حساس بدون رضایت آگاهانه جمع‌آوری می‌شود، نه‌تنها چالش حقوقی ایجاد می‌کند، بلکه می‌تواند اعتماد عمومی را خدشه‌دار کند، همچنین اگر مردم حس کنند همه چیز به ماشین سپرده شده و نقش انسان کم‌رنگ است، امکان دارد به نتایج و توصیه‌های هوش مصنوعی اعتماد نکنند. در بحران، اعتماد اجتماعی کلید موفقیت است.

امامی درباره اینکه چطور می‌توان اطمینان حاصل کرد که داده‌های استفاده شده برای هوش مصنوعی دقیق، به‌روز و معتبر هستند، گفت: اعتبارسنجی داده‌ها باید چندلایه باشد؛ هر چه تنوع منابع بیشتر باشد، دقت پیش‌بینی بالا می‌رود. استانداردسازی داده‌ها اهمیت زیادی دارد. اگر چارچوب واحد و توافق‌شده بین‌المللی برای جمع‌آوری و ثبت داده نباشد، تحلیل‌ها غیرقابل اعتماد خواهد بود. نظارت انسانی همچنان حیاتی است. باید کارشناسان انسانی در همه مراحل از جمع‌آوری تا تحلیل، خروجی مدل‌ها را ارزیابی و تأیید کنند. هوش مصنوعی هنوز به قضاوت انسانی نیاز دارد. 

وی در خصوص نقش آموزش و فرهنگ‌سازی در پذیرش هوش مصنوعی توسط مردم و نهادهای مدیریت بحران افزود: آموزش نیروهای تخصصی که هم با مدیریت بحران و هم هوش مصنوعی آشنا باشند، حیاتی است. باید دوره‌هایی طراحی شود که نیروها خروجی‌های هوش مصنوعی را درست تفسیر و راستی آزمایی کرده، نه فقط آن را اجرا کنند. برای مردم هم باید با زبان ساده و شفاف توضیح دهیم که هوش مصنوعی چطور کار می‌کند و چه مزایایی دارد. برگزاری مانورهای مشترک میان تیم‌های انسانی و سامانه‌های هوشمند، کمک می‌کند در شرایط واقعی، هماهنگی افزایش یابد و ترس از فناوری جای خود را به مهارت و اعتماد بدهد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha