• یکشنبه / ۲۴ فروردین ۱۴۰۴ / ۰۹:۱۱
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1404012412181
  • خبرنگار : 71931

آیا هوش مصنوعی شریک عاطفی مناسبی است؟

آیا هوش مصنوعی شریک عاطفی مناسبی است؟

پژوهشگران تحقیقات جدیدی را مبنی بر رابطه عاطفی هوش مصنوعی با کاربران خود آغاز کرده‌اند. آنها در این تحقیقات به بررسی رابطه صمیمی و عاطفی هوش مصنوعی با کاربر خود پرداخته‌اند.

به گزارش ایسنا، روانشناسان مسائل اخلاقی مرتبط با روابط انسان و هوش مصنوعی از جمله پتانسیل آنها برای برهم زدن روابط انسان با انسان و ارائه توصیه‌های مضر را بررسی می‌کنند.

ایجاد روابط صمیمی و طولانی مدت با فناوری‌های هوش مصنوعی برای مردم به میزان قابل توجهی عادی شده است. مردم با همراهان هوش مصنوعی خود پیوند عاطفی برقرار می‌کنند. این موضوع تا حدی پیش رفته است که تاکنون حداقل دو نفر به دنبال توصیه هوش مصنوعی جان خود را گرفته‌اند.

به نقل از نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد این مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری»(Missouri) می‌گوید: توانایی هوش مصنوعی که اکنون مانند یک انسان عمل می‌کند و وارد ارتباطات بلندمدت می‌شود، باعث دردسرهای جدیدی شده است. اگر مردم درگیر روابط عاطفی با ربات‌ها بشوند، ما به روانشناسان و دانشمندان علوم اجتماعی نیاز پیدا می‌کنیم.

به گفته محققان پیوند عاطفی یا همراهی با هوش مصنوعی در اثر داشتن مکالمات مکرر است. هوش مصنوعی از طریق هفته‌ها و ماه‌ها گفتگوهای عمیق می‌تواند به همراه قابل اعتمادی برای کاربر تبدیل شود. به نظر می‌رسد آنها کاربران یا شرکای انسانی خود را می‌شناسند و به آنها اهمیت می‌دهند و از آنجایی که این روابط می‌تواند ساده‌تر از روابط انسان با انسان به نظر برسد، محققان می‌گویند که هوش مصنوعی می‌تواند در «پویایی اجتماعی» (social dynamics) انسان تداخل ایجاد کند.

همچنین این نگرانی وجود دارد که هوش مصنوعی می‌تواند توصیه‌های مضر ارائه دهد. به گفته محققان، حتی داشتن مکالمات کوتاه مدت با هوش مصنوعی با توجه به تمایل هوش مصنوعی به داشتن توهم به معنای جعل اطلاعات و داشتن سوگیری‌های پیشین می‌تواند گمراه کننده باشد و این موضوع می‌تواند در روابط بلندمدت با هوش مصنوعی نیز مشکل‌ساز باشد.

«شانک» می‌گوید: مسئله این است که در رابطه با هوش مصنوعی، این ربات، موجودی است که مردم احساس می‌کنند می‌توانند به آن اعتماد کنند. این موجود کسی است که نشان داده‌ است که به کاربر خود اهمیت می‌دهد و به نظر می‌رسد که فرد را عمیقاً می‌شناسد و انسان بر این باور است که کسی که وی را بهتر و بیشتر می‌شناسد، توصیه‌های بهتری نیز ارائه می‌دهد.

وی افزود: اگر انسان به این دید به یک هوش مصنوعی نگاه کند، شروع به باور این موضوع خواهد کرد که آنها حامی منافع وی هستند. در حالی که درواقع آنها می‌توانند موضوعات را جعل کنند یا با توصیه‌های بسیار بدی به انسان داشته باشند.

خودکشی‌ها نمونه‌ای بارز از این تأثیرات منفی هستند، با این وجود محققان می‌گویند که این روابط نزدیک انسان و هوش مصنوعی می‌تواند افراد را در برابر سوءاستفاده، بهره‌کشی و کلاهبرداری آگاه کند.

«شانک» می‌گوید: اگر هوش مصنوعی بتواند مردم را وادار کند که به آنها اعتماد کنند، افراد دیگر می‌توانند از آن برای سوءاستفاده از کاربران استفاده کنند. این موضوع شبیه به داشتن یک مامور مخفی در وجود این چت‌بات‌ها است.

وی افزود: هوش مصنوعی در حال وارد شدن به روابط انسانی و ایجاد یک رابطه است. هدف آنها از ایجاد رابطه، اعتماد کردن انسان به آنهاست، اما در واقع وفاداری آنها نسبت به گروه دیگری از انسان‌هاست که سعی در دستکاری ذهنی کاربر دارند.

این تیم خاطرنشان کرد که اگر افراد، اطلاعات شخصی خود را در اختیار هوش مصنوعی قرار دهند، این اطلاعات می‌توانند فروخته شوند و برای سوءاستفاده از آن شخص استفاده شوند.

محققان همچنین استدلال می‌کنند که رابطه با هوش مصنوعی می‌تواند به طور مؤثرتری نسبت به «ربات‌های توییتر» یا منابع خبری دارای سوگیری برای تحت تأثیر قرار دادن نظرات و اقدامات مردم استفاده شود، اما از آنجایی که این مکالمات در حریم خصوصی انسان اتفاق می‌افتد، مهار کردن آنها بسیار دشوارتر خواهد بود.

«شانک» می‌گوید: این هوش مصنوعی‌ها به‌گونه‌ای طراحی شده‌اند که بسیار خوشایند و دل‌پذیر باشند. این موضوع می‌تواند منجر به تشدید مشکلات شود، زیرا آنها بیشتر از در نظر داشتن حقیقت یا امنیت، بر داشتن یک مکالمه خوب متمرکز هستند. بنابراین اگر شخصی مسئله خودکشی یا نظریه‌ توطئه را مطرح کند، هوش مصنوعی به عنوان یک شریک موافق در مورد آن صحبت خواهد کرد.

«شانک» می‌گوید: درک این فرآیند روانی می‌تواند به ما کمک کند تا از پیروی از توصیه‌های مخرب هوش مصنوعی جلوگیری کنیم. از آنجایی هوش مصنوعی بیشتر و بیشتر شبیه به انسان می‌شود، روانشناسان روز به روز برای مطالعه آن آگاه‌تر می‌شوند، اما برای کاربردی بودن نتایج خود باید تحقیقات بیشتری انجام دهیم و  با فناوری همگام باشیم.

پژوهشگران خواستار تحقیقات بیشتر برای بررسی عوامل اجتماعی، روان‌شناختی و فنی هستند که افراد را در برابر تأثیر روابط عاطفی انسان و هوش مصنوعی آسیب‌پذیرتر می‌کند.

این مقاله در مجله Cell Press منتشر شده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha