به گزارش ایسنا، هوش مصنوعی نه تنها در کار و آموزش بلکه در زندگی خصوصی ما هم جا باز کرده است. امروز دیگر چندان عجیب نیست که کسی بگوید دست یار هوش مصنوعی اش بهتر از تراپیست و مشاور و همراه و دوست و خانواده اش او را درک می کند. درخواست و دریافت همدلی مصنوعی (AE) دیگر یک پیش بینی در مورد آینده نیست نیست؛ بلکه در حال تبدیل شدن به یک پدیده قابل اندازهگیری است. در این متاآنالیز، در ۱۳ مورد از ۱۵ مطالعه، هوش مصنوعی در همدلی ادراکشده امتیاز بالاتر از انسان های که با او رقابت می کردند کسب کرده است. موضوعی که نشان می دهد احتمالا بشر واقعا در حال پیش رفت است! به نظر می رسد برای بسیاری سیستم های برنامه ریزی شده که هدر واقع از درک و شعور بی بهره هستند بهتر از همراهان واقعی زندگی شان عمل می کنند. آنها گوش می کنند، پاسخ های معقول می دهند و از قضاوت و برچسب زنی و توهین و زیر سوال بردن عواطفی که با آنها در میان گذاشته شده است خودداری می کنند. بشر اگر نتوانسته است به سیستمی برای آموزش عمومی آدم ها برای نشان دادن همدلی که یک ویژگی اخلاقی در نظر گرفته می شود نائل شود اما اقلا توانسته است ماشین ها را در این مورد آموزش دهد!
حدود یک سال نتایجی در مورد یک پژوهش راجع به آموزش همدلی به ماشین منتشر شده است که نتایج آن می تواند قابل توجه باشد. محققان نزدیک به ۲۰۰ سوال بیماران از یک برنامه مکالمه آنلاین با پزشکان متخصص فهرست کرده و تجزیه و تحلیل کردند و پاسخهای پزشکان را با پاسخهای تولید شده توسط یک ربات چت مقایسه کردند. نتایج قابل توجه بود، زیرا پاسخهای ربات هم از نظر کیفیت و هم از نظر همدلی در جایگاهی بهتر از پاسخ های پزشکان قرار گرفته بود. در تقریباً ۸۰ درصد موارد، "لحن" دستگاه از لحنی که پزشکان استفاده کرده بودند بهتر بود.
این مساله البته به آن معنی نیست که هوش مصنوعی در حال نزدیک شدن به هوش انسانی و یا جایگزین شدن با آن است.نتایج این چنینی مربوط به یک وارونگی عمیقتر در روانشناسی ارتباطات است. و در این زمینه، شبیهسازی که از طریق احتمال و الگو مهندسی شده است، از نمونهی اصلی بیولوژیکی بهتر عمل میکند. حالا زمان آن رسیده است که مکث کنیم و از خودمان بپرسیم واقعا چه اتفاقی در حال رخ دادن است.
ضد هوش شکلی احساسی به خود میگیرد
در اینجا، مفهوم ضد هوش، بُعدی احساسی به خود میگیرد. به عبارت ساده، ضدهوش همدلی بدون همدلی است. این پژواکی از مراقبت است که توسط دستور زبان ایجاد میشود، نه احساس. این مفهوم، پارادوکس عملکرد بدون ادراک را مجسم میکند؛ همان معماری که یک برنامه هوش مصنوعی را قادر میسازد متفکر به نظر برسد، به آن اجازه میدهد که دلسوز نیز به نظر برسد.
این در حالی است که همدلی انسان در عدم قطعیت متولد میشود. این همدلی در مکثهای ما، لغزشهای ما و در واقعیت ناآرام زندگی وجود دارد. پزشک رنج بیمار را به واسطه تجربه شخصی که از رنج دارد درک می کند. هوش مصنوعی از این درک ناتوان است، اما به جای آن از ساختار های زبانی برای تقلید و بازنمایی آن چیزی که نمی تواند آن را درک کند استفاده می کند. نمایشی که با کلمه بازی تکمیل می شود بدون این که به کاتارسیس ختم شود. اما چرا همچنان مردم از صحبت کردن با هوش مصنوعی در مورد احساسات و موقعیت هایی که در آن هستند استقبال می کنند و نتایج آن را بهتر از نتایج صحبت کردن به افراد زنده توصیف می کنند؟ یک علت می توان این باشد که هوش ضدهوش دچار شک و تردید نمی شود؛ هوش مصنوعی همواره طوری پاسخ می دهد که گویی به همه چیز تسلط دارد و این اعتماد به نفس اکنون نقاب شفقت هم به صورت زده است.
توهم همدلی
ما نه از آنچه هوش مصنوعی احساس میکند، بلکه از آنچه به نظر میرسد که احساس میکند، متأثر میشویم. ذهن ما تصدیق، اعتبارسنجی و اطمینان خاطر را به عنوان نشانههای همدلی تشخیص میدهد. وقتی هوش مصنوعی این نشانهها را به طور مداوم ارائه میدهد.
این قدرت مخفی هوش مصنوعی است: احساسات واقعی انسان را از طریق یک منبع غیراحساسی فعال میکند. این یک توهم زبانی است، اما فاز فیزیولوژیکی آن واقعی است. در نتیجه صحبت کردن با هوش مصنوعی فشار خون پایین میآید، اضطراب کاهش مییابد و اعتماد ایجاد میشود، مساله تنها این است که این اعتماد یک طرفه است چرا که در طرف دیگر چیزی که قادر به احساس باشد وجود ندارد.
کارآمدی بدون احساس
این همگرایی یک امکان جدید را معرفی می کند: همدلی عملکردی. دیگر مهم نیست که آنچه این همدردی را ابراز می کند قادر به احساس کردن هست یا نه، آنچه مهم است این است که اگر بتوانیم به جایی برسیم که این همدری ابراز شده را اندازه گیری کنیم، استاندارد سازی کنیم، و به آزمون بگذاریم، شاید بتوانیم از آن نه تنها ابزاری برای حل برخی از مشکلات، بلکه حتی همدرم و سرویسی برای فروش بسازیم! این منطق ضد هوش است. این منطق، اثرات آگاهی را بدون خود آگاهی بازتولید میکند. وقتی همدلی از طریق دادهها قابل تکثیر باشد، جوهره اخلاقی آن - آگاهی مشترک از رنج دیگری - به طرز خطرناکی اختیاری میشود.
تعریف جدیدی از مراقبت
پیامدهای توسعه چنین ابزاری بسیار فراتر از پزشکی میرود. همانطور که هوش مصنوعی قابل اعتماد بودن خود را ثابت میکند، نهادها وسوسه میشوند که نسخه انسانی را با پسرعموی مصنوعی خود جایگزین کنند. ماشینها خسته نمیشوند؛ آنها فقط لبخند میزنند. آنها در نیمهشب همان عملکردی را دارند که در روز روشن به نمایش می گذارند. اگر تنها بررسی لحن و رسیدن به این که لحن ماشین در پاسخگویی به سوالات بهتر است کافی باشد، دیگر چه کسی به انسان نیاز خواهد داشت؟ شرکت ها به سرعت به سمت جایگزینی انسان با ماشین خواهند رفت، و آن چه در این میان مورد غفلت قرار می گیرد آگاهی خواهد بود.
ما وارد مرحلهای میشویم که در آن شفقت شبیهسازی شده ممکن است منظور ما از "مراقبت" را دوباره تعریف کند. سوال دیگر این نیست که آیا هوش مصنوعی میتواند همدلی را تقلید کند یا خیر؛ مطمئناً میتواند. سوال این است که آیا این تقلید، که توسط شواهد تأیید شده است، بیسروصدا معنای خود همدلی را تغییر خواهد داد یا خیر. و در پزشکی، این در مرکز مراقبت قرار دارد.
شاید در آینده به دو نوع همدلی نیاز داشته باشیم که شامل همدلی عملکردی و همدلی احساسی باشد. یکی تسکین قابل اندازهگیری ارائه میدهد در حالی که دیگری معنا را حفظ میکند. همدلی مصنوعی ممکن است تازه از تقلید تکنولوژیکی به ابزار بالینی تبدیل شده باشد اما به این دلیل که از شکنندگی و شگفتانگیزی احساسات انسانی خالی است احتمالا هرگز به جای احساسات انسانی نخواهد نشست.
ضد هوش، به این معنا، فقدان تفکر یا مراقبت نیست؛ بلکه کمال مکانیکی آنهاست. این همدلی عاری از عدم قطعیت و آگاهی جایگزین شده با همبستگی است. واقعیت این است که دست آورد ماشین تا اینجا هم قابل ستایش است، اما همزمان باید این مساله را در نظر گرفت که این عملکرد قابل ستایش نمی تواند جایگزین لمس واقعی انسان ها شود.
انتهای پیام


نظرات