هوش مصنوعی در سالهای اخیر به یکی از تأثیرگذارترین علوم و فناوریهای روز دنیا تبدیل شده است. این فناوری با ارائه ابزارهای هوشمند و قابلیتهای پردازشی بینظیر، توانسته تحولات چشمگیری در حوزههای مختلف از جمله پزشکی، صنعت، آموزش و امنیت ایجاد کند، اما این پیشرفت سریع، علاوه بر مزایای فراوان، چالشهای اخلاقی و امنیتی قابلتوجهی نیز به همراه داشته است.
با گسترش هوش مصنوعی، جهان شاهد تغییرات بیسابقهای در سبک زندگی و مشاغل بوده است. فناوریهای مبتنی بر یادگیری ماشینی و الگوریتمهای پیشرفته اکنون در تصمیمگیریهای کلان و حتی جزئیات روزمره نقش دارند، اما آیا این تحولات همیشه در خدمت رفاه و پیشرفت بشر بودهاند؟ یا گاهی به ابزاری برای تهدید امنیت و حقوق انسانها تبدیل میشوند؟
یکی از مهمترین مباحث پیرامون هوش مصنوعی، نحوه مدیریت و استفاده از این فناوری است. همانطور که تکنولوژی میتواند برای رفاه عمومی به کار رود، سوءاستفاده از آن نیز ممکن است پیامدهای جبرانناپذیری به همراه داشته باشد. در این میان، تعریف ضوابط اخلاقی و قانونی شفاف برای استفاده از هوش مصنوعی، گامی حیاتی در کاهش خطرات و افزایش بهرهوری این علم نوین است.
در همین رابطه با نیره قهرمان، مسئول مرکز حمایت از تحقیقات کاربردی هوش مصنوعی سازمان علمی، پژوهشی و فناوری استان اصفهانبه گفتوگو نشستهایم که در ادامه این گفتوگو را میخوانید.
بهنظر شما، هوش مصنوعی در حال حاضر بیشتر بهعنوان یک ابزار مفید و مثبت شناخته میشود یا خطرات و معایب آن بیشتر از مزایایش است؟ در چه حوزههایی میتواند برای جامعه مفیدتر باشد؟
هوش مصنوعی یک علم است و بهطور کلی علم مزایای بیشتری نسبت به معایبش دارد. معایب این علم مربوط به خود آن نیست، بلکه به نحوه استفاده از آن بازمیگردد. اگر کاربرد علم اشتباه باشد، مشکلاتی ایجاد میشود، اما علم ذاتاً هیچ عیبی ندارد. این موضوع در تمامی حوزهها صادق است؛ استفاده نادرست از علم و فناوری میتواند مانند یک چاقوی دو لبه عمل کند.
هوش مصنوعی توانایی انجام عملیاتهایی را دارد که هوش طبیعی انجام میدهد. هدف آن این است که فعالیتهایی که توسط انسان یا مغز او انجام میشود، با سرعت پردازشی بالاتر انجام شوند. در هر جایی که نیاز به یک دستیار انسانی یا اجرای عملیاتهای انسانی باشد، هوش مصنوعی میتواند مفید واقع شود.
با این حال، به دلیل اینکه دقت الگوریتمها همیشه صددرصد نیست و کاربردهای متنوعی دارد، حضور نظارت انسانی الزامی است. حتی در پایینترین سطح استفاده از هوش مصنوعی، همچون تولید محتوا، در نهایت باید یک انسان بر آن نظارت کند. این اهمیت نظارت در حوزههای حساستر، همچون پزشکی، بیشتر مشهود است. نمیتوان اختیار کامل را مانند تصمیمگیری در جراحیهای حساس یا تحلیلهای پزشکی، به هوش مصنوعی سپرد. هوش مصنوعی باید بهعنوان یک ابزار کمکی برای متخصصان مورد استفاده قرار گیرد.
هوش مصنوعی میتواند در بسیاری از صنایع موجب کاهش مشاغل انسانی شود. چگونه میتوان این چالش را مدیریت کرد و تأثیرات منفی آن بر بازار کار را کاهش داد؟
همزمان با ظهور هر تکنولوژی جدید، شغلهایی از بین میروند و شغلهای جدید جایگزین میشوند. برخی مشاغل هم با بهروزرسانی به حیات خود ادامه میدهند. تاریخ نشان داده که هر تحول علمی موجب ایجاد فرصتهای شغلی نوین شده است.
برای مثال، وقتی صنعت حملونقل با ظهور هواپیما تغییر کرد، وسایل نقلیه قدیمیتر از بین رفتند و مشاغل مرتبط با آنها حذف شدند، اما بهجای آن، شغلهای جدیدی همچون خلبانی، مهمانداری، پرسنل پشتیبانی فرودگاه و بسیاری دیگر به وجود آمدند. این مثال ساده نشان میدهد که تحول علمی با حذف کامل مشاغل قبلی همراه نیست، بلکه شغلها متناسب با خدمات جدید تغییر میکنند و بهروز میشوند، بنابراین، مهمترین اقدام برای مدیریت این چالش، بهروزرسانی مهارتهای شغلی و آمادهسازی نیروی کار برای مشاغل جدید است.
آیا بهنظر شما هوش مصنوعی میتواند در آینده مشکلات اخلاقی جدی ایجاد کند؟ برای جلوگیری از این مسائل، چه اقداماتی باید انجام شود؟
هر علم و تکنولوژی، مانند یک چاقوی دو لبه است و میتواند هم مفید باشد و هم خطرناک. برای جلوگیری از مشکلات اخلاقی، باید قوانین و ضوابط مربوط به آن بهدقت تدوین شوند. این قوانین باید شامل محدودیتها و مسئولیتها برای استفادهکنندگان و توسعهدهندگان فناوری باشد. مانند رانندگی که در صورت استفاده نادرست میتواند خطرساز شود، هوش مصنوعی نیز به قوانین مشخصی نیاز دارد. این قوانین باید استفاده درست از الگوریتمها و برنامههای هوش مصنوعی را در حوزههای مختلف تضمین کنند، بنابراین با تعریف چارچوبهای قانونی و اخلاقی مشخص، میتوان از کاربرد نادرست و خطرات احتمالی آن جلوگیری کرد.
با پیشرفتهای روزافزون در هوش مصنوعی، نگرانیهایی درباره تهدیدات امنیتی ایجاد شده است. آیا بهنظر شما این فناوری تهدیدی برای امنیت ملی یا جهانی بهشمار میرود؟ چگونه میتوان این تهدیدات را کاهش داد؟
هوش مصنوعی میتواند در حوزههای مختلف خدمترسانی کند، اما همین کاربردها ممکن است در برخی موارد تهدیدات امنیتی نیز ایجاد کنند. یکی از نمونههای شناختهشده این تهدیدات، الگوریتمهای مبتنی بر یادگیری عمیق مانند شبکههای مولد تخاصمی (GAN) است که از آنها برای تولید دیپفیک استفاده میشود. دیپفیک به محتوایی اطلاق میشود که هوش مصنوعی تولید کرده و در واقعیت وجود ندارد، اما بسیار واقعی به نظر میرسد. این فناوری میتواند تصاویر، فیلمها یا صوتهایی بسازد که دروغین هستند و ممکن است برای مقاصد سوءاستفاده شوند.
در سالهای اخیر، دیپفیک بیشتر در حوزههای هنری و رسانهای مطرح بوده، اما اکنون این تهدیدات به حوزههای سیاسی و نظامی نیز گسترش یافته است. این فناوری میتواند ابزارهایی برای جعل محتوا و تهدید امنیت ملی یا جهانی ایجاد کند، همچنین در مواردی مانند استفاده از پهپادهای نظامی، هوش مصنوعی میتواند برای نقض حقوق بشر به کار رود.
برای کاهش این تهدیدات، لازم است قوانین ملی و بینالمللی روشنی برای استفاده از هوش مصنوعی تدوین شود. همانطور که هر فناوری جدید نیاز به ضوابط مشخص دارد، هوش مصنوعی نیز باید در چارچوبی اخلاقی و قانونی مورد استفاده قرار گیرد.
آیا در آینده، هوش مصنوعی میتواند بهطور خودکار تصمیمات مهم اجتماعی و سیاسی را بگیرد؟ در این صورت، آیا انسانها هنوز باید در فرآیند تصمیمگیری نقش داشته باشند یا هوش مصنوعی باید کاملاً مستقل عمل کند؟
یکی از اصول بنیادین استفاده از هوش مصنوعی این است که این فناوری تنها بهعنوان یک دستیار عمل کند، نه تصمیمگیرنده نهایی. در حوزه مدیریت کلان و ارشد نیز از سیستمهای پشتیبان تصمیمگیری استفاده میشود. این سیستمها به مدیران کمک میکنند تا با آنالیز دادهها و ارائه پیشنهادات، تصمیمگیری بهتری داشته باشند.
در این سیستمها، هوش مصنوعی میتواند بهعنوان یک توصیهگر عمل کند، اما اختیار تصمیمگیری نهایی همچنان بر عهده انسان است. برای مثال، در پایینترین سطح کاربرد، هوش مصنوعی میتواند در یک خرید اینترنتی پیشنهاد دهد که مشتریان مشابه چه اقلام دیگری را خریدهاند، اما در نهایت، تصمیم خرید با کاربر است.
این قاعده در سطحهای بالاتر، مانند مسائل نظامی، اجتماعی یا سیاسی نیز صادق است. حتی اگر هوش مصنوعی قادر به تحلیل و پردازش دادهها با دقت بالا باشد، باز هم تصمیمگیری نهایی باید توسط انسان انجام شود. دلیل این امر، علاوه بر ملاحظات اخلاقی، خطاهای احتمالی هوش مصنوعی است که همچنان وجود دارد.
بهعنوان مثال، در حوزه نظامی، اگر هوش مصنوعی یک شی ناشناخته را تشخیص دهد، تنها آلارم میدهد و تصمیم نهایی برای اقدام باید با کاربری باشد که از این فناوری استفاده میکند. همین رویکرد در حوزههای دیگر، مانند پزشکی نیز وجود دارد. حتی با وجود پیشرفتهای قابلتوجه، رباتهای جراح نیز هنوز بهعنوان دستیار عمل میکنند و تصمیمگیری نهایی با پزشک متخصص است، بنابراین هوش مصنوعی میتواند ابزار بسیار قدرتمندی برای کمک به انسان باشد، اما تصمیمگیریهای حیاتی و نهایی همچنان باید در اختیار انسان باقی بماند.
انتهای پیام
نظرات