• یکشنبه / ۹ شهریور ۱۴۰۴ / ۰۸:۰۹
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404060905069
  • خبرنگار : 71654

۷۲ درصد از استخدام‌کنندگان قربانی تقلب شغلی با هوش مصنوعی می‌شوند

۷۲ درصد از استخدام‌کنندگان قربانی تقلب شغلی با هوش مصنوعی می‌شوند

یک بررسی از ۸۷۴ متخصص استخدام نشان داده است که هوش مصنوعی، بازار کار را در بر گرفته که باعث شده استخدام‌کنندگان حوزه فناوری با مشکل مواجه شوند. نزدیک به سه چهارم مدیران استخدام می‌گویند که با رزومه‌های ساخته شده توسط هوش مصنوعی مواجه شده‌اند و ۱۵ درصد گزارش می‌دهند که کاندیداها از فناوری تغییر چهره در طول مصاحبه ویدیویی استفاده می‌کنند تا چهره خود را در لحظه دستکاری کنند.

به گزارش ایسنا، این مطالعه نشان دهنده یک واقعیت مشکل‌ساز است. کلاهبرداری شغلی با فناوری پیشرفت کرده است و بیشتر شرکت‌ها آماده مقابله با آن نیستند.

به نقل از اس‌اف، فریب با کمک هوش مصنوعی فراتر از ساخت رزومه رفته است. بیش از نیمی از متخصصان استخدام شاهد نمونه کارهای ساخته شده با هوش مصنوعی بوده‌اند در حالی که ۴۲ درصد استناد جعلی و ۳۹ درصد اعتبارنامه یا دیپلم جعلی را مشاهده کرده‌اند. دستکاری صدا نیز افزایش یافته است و ۱۷ درصد از استخدام‌کنندگان شاهد تلاش کاندیداها برای تغییر صدا بوده‌اند. علیرغم وجود این آمار نگران کننده تنها ۲۰ درصد از متخصصان استخدام اذعان دارند که ابزارهای نرم‌افزاری تخصصی برای تشخیص فریب هوش مصنوعی اعتماد ندارند. این یک نقطه کور خطرناک ایجاد می‌کند که در آن بیشتر استخدام‌کنندگان باور دارند که می‌توانند کاندیداهای متقلب را به صورت دستی پیدا کنند.

نیمی از استخدام‌کنندگان اکنون رزومه‌های بهبود یافته با هوش مصنوعی را فریب می‌دانند و ۵۰ درصد از کاندیداها به دلیل احتمال استفاده از هوش مصنوعی رد می‌شوند. ۴۰ درصد دیگر به دلیل احتمال دستکاری هویت در طول مصاحبه با استفاده از هوش مصنوعی، کاندیداها را رد می‌کنند.

صنعت فناوری با خطر بیشتری مواجه است زیرا ۶۵ درصد از متخصصان استخدام این بخش را آسیب‌ترین بخش در برابر فریب شغلی هوش مصنوعی می‌دانند. بازاریابی و مشاغل خلاقانه و طراحی نیز پس از آن در معرض خطر هستند. اینها بخش‌هایی هستند که در آنها نمونه کار و کار بصری به راحتی می‌تواند با استفاده از ابزارهای هوش مصنوعی جعل شود. امور مالی نیز در جایگاه چهارم از این مجموعه قرار می‌گیرد.

سایر بخش‌ها نیز به میزان کمتر با خطر مواجه هستند. موقعیت‌های شغلی دولتی ۲۱ درصد، سیستم بهداشت ۱۹ درصد و آموزش ۱۵ درصد با تقلب مواجه می‌شوند.

به گفته یک سوم شرکت‌کنندگان در این مطالعه؛ شرکت‌های بزرگ با بیش از ۲۵۰ نیرو با خطر به خصوصی مواجه می‌شوند. البته ۳۵ درصد نیز معتقد بودند که سازمان‌ها در هر اندازه‌ای که باشند در برابر فریب شغلی هوش مصنوعی آسیب پذیرند.

درحالی که متخصصان استخدام به توانایی خود در تشخیص فریب‌ها ایمان دارند اما تنها ۳۱ درصد از شرکت‌ها نرم‌افزارهای تشخیص هوش مصنوعی یا جعل عمیق را به کار گرفته‌اند. بیشتر سازمان‌ها همچنان بر بررسی‌های دستی منابع انسانی، بررسی شخص ثالث و روش‌های پیشگیری از تقلب تکیه دارند. سایر روش‌های تشخیصی شامل تشخیص هویت بیومتریک می‌شود و باید در نظر داشت که ۱۰ درصد از شرکت‌ها از هیچ ابزار تشخیصی بهره نمی‌برند.

وجود خلأ آموزشی شرایط را بدتر نیز می‌کند. تقریبا نیمی از متخصصان منابع انسانی هیچ آموزشی در مورد تقلب‌های شغلی با استفاده از هوش مصنوعی ندیده‌اند. با این وجود ۱۵ درصد از شرکت‌ها در حال توسعه برنامه‌های آموزشی هستند.

با وجود این کاستی‌ها، تغییر در حال وقوع است. نزدیک به ۴۰ درصد از شرکت‌ها قصد دارند سال آینده روی ابزارهای تشخیصی سرمایه‌گذاری کنند و بیش از نیمی از آنها برای دریافت پلتفرم‌هایی که در خود فناوری تشخیص هوش مصنوعی دارند، هزینه پرداخت می‌کنند.

متخصصان استخدام خواستار تغییرات ساختاری برای مبارزه با این تهدید رو به رشد هستند. دو سوم باور دارند که پلتفرم‌های شغلی مانند لینکدین باید مسئولیت نشانه‌گذاری کاندیدادهایی که از هوش مصنوعی استفاده کرده‌اند را بر عهده بگیرند. همچنین قوانین حمایتی فدرال باید افراد جویای کار را ملزم کنند که اعلام کنند که آیا موارد ارائه شده خود از هوش مصنوعی استفاده کرده‌اند یا خیر.

بسیاری از استخدام‌کنندگان برای فرآیند راستی‌آزمایی جدی‌تر آماده هستند. تقریبا ۶۵ درصد از آنها از مصاحبه حضوری برای ارزیابی هویت کاندیدا حمایت می‌کنند و ۵۴ درصد از تایید اعتبار و پیشینه پیشرفته حمایت می‌کنند. ضرورت این کار مشخص است. ۸۸ درصد از شرکت‌کنندگان در این مطالعه پیش‌بینی کرده‌اند که تقلب شغلی هوش مصنوعی فرآیند استخدام را طی ۵ سال آینده تغییر خواهد داد. استخدام‌کنندگان رزومه‌های بهبود یافته توسط هوش مصنوعی را در بلندمدت خطر بزرگ‌تری نسبت به ویدئوهای جعل عمیق می‌دانند.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha