به گزارش ایسنا، بقای روانی در دوران جنگ به اندازه بقای جسمی ضروری است. متخصصان میگویند که هوش مصنوعی میتواند به التیام روح و ایجاد تابآوری کمک کند، اما تنها در صورتی که مبتنی بر شأن انسانی باشد و مراقبتهای روانی-اجتماعی را در اولویت قرار دهد.
به نقل از گلوبال پالیسی ژورنال، دسترسی به خدمات سلامت روان در زمان فجایع و فوریتها، شعار روز جهانی سلامت روان در سال ۲۰۲۵ بود. جنگها میلیونها نفر را آواره میکنند، جوامع را متلاشی میکنند و زخمهای نامرئی به جا میگذارند که از جنگ بیشتر دوام خواهند آورد. سلامت روان دیگر یک مسئله فرعی در بحرانهای بشردوستانه نیست، بلکه خط مقدم رنج بشر و مقاومت انسان است، اما جوامع چگونه میتوانند مراقبتهای سلامت روان را در شرایطی ارائه دهند که سیستمها تحت فشار هستند و زیرساختها از بین رفتهاند؟ پاسخ دادن به این پرسش بیش از هر زمان دیگری ضروری است. در مناطق جنگی، خدمات سلامت روان مختل میشوند یا تقریباً وجود ندارند. شکاف بین نیاز و ظرفیت در حال تبدیل شدن به یک شکاف عمیق است.
یکی از واکنشها از مرز فناوری میآید. در آوریل سال ۲۰۲۵، «دانشگاه استنفورد» طرح «هوش مصنوعی برای سلامت روان» خود را راهاندازی کرد و با فراخواندن هوش مصنوعی نه به عنوان جایگزینی برای مراقبتهای انسانی، بلکه به عنوان پلی برای دسترسی به خدمات سلامت روان، زمینه را برای این امر فراهم کرد. به موازات آن، «موسسه تغییر جهانی تونی بلر»(TBI) نیز از گسترش تمرکز خود بر هوش مصنوعی خبر داد و گزارشهای خود را پیرامون چگونگی تقویت سیستمهای بهداشتی شکننده با کمک فناوریهای دیجیتال در محیطهای کممنابع و درگیر جنگ منتشر کرد. این طرحها در کنار یکدیگر، یک تغییر را برجسته میکنند مبنی بر این که هوش مصنوعی در حال ورود به یکی از حساسترین و مورد مناقشهترین مرزهای اجتماعی و روانشناختی زمان ماست. این مرز حساس، سلامت روان در زمان جنگ و بحران است.
یکی از چالشهای پیش رو، مقیاس است. در مناطق جنگی که آسیب پس از سانحه سریعتر از واکنش سیستمهای مراقبتی تکثیر میشود، پرسش مهمی پیش میآید و آن پرسش این است که آیا هوش مصنوعی میتواند به پر کردن شکاف بین نیاز شدید و ظرفیت محدود انسانی کمک کند، اما از بافت اجتماعی که همه درمانها به آن وابسته هستند، غافل نماند.
پرداختن مؤثر به این نیازها مستلزم مقابله با عوامل تعیینکننده اجتماعی است که آسیبپذیری را در طول زندگی شکل میدهند. افرادی که در معرض شرایط اجتماعی نامطلوب قرار میگیرند، بیشتر احتمال دارد که سلامت روان ضعیفی را تجربه کنند. این امر اغلب در نتیجه عوامل ساختاری پیش میآید که به ایجاد و تداوم محرومیت بین نسلی منجر میشوند.
برخی از فراگیرترین عوامل تعیینکننده اجتماعی به شرح زیر هستند.
۱.محرومیت اجتماعی-اقتصادی
۲.سختیهای اوایل زندگی و دوران کودکی
۳.مهاجرت
۴.تبعیض
۵.نابرابریها
۶.انزوای اجتماعی
مقابله با این چالشها موضوع عدالت اجتماعی است.
نقش هوش مصنوعی در ارائه خدمات سلامت روان
هوش مصنوعی میتواند با گسترش دسترسی به منابع انسانی محدود و پشتیبانی از مراقبتهای بهموقع و پاسخگو، به مقابله با چالش دوگانه مقیاس و آسیبپذیری اجتماعی کمک کند. این در عمل به معنای تشخیص زودهنگام، شناسایی نیازهای فوری در جمعیتهای بزرگ و ارائه حمایت روانی-اجتماعی موقت در زمانی است که منابع انسانی بیش از حد مورد استفاده قرار میگیرند. با وجود این، اثربخشی آن از سیستمهای اجتماعی که در آنها مستقر شده، جداییناپذیر است. بدون توجه به عدالت، دسترسی و بازسازی جامعه، هوش مصنوعی به جای کاهش نابرابریها، خطر گسترش آنها را افزایش میدهد.
هوش مصنوعی میتواند با گسترش دسترسی به منابع انسانی محدود و پشتیبانی از مراقبتهای بهموقع و پاسخگو، به مقابله با چالش دوگانه مقیاس و آسیبپذیری اجتماعی کمک کند.
وضعیت اوکراین در جنگ روسیه و این کشور، فوریت و پتانسیل عملی هوش مصنوعی را برای کمک به سلامت روان در دوران جنگ به نمایش گذاشت.
هوش مصنوعی با گسترش دامنه حمایت از سلامت روان، کمک به متخصصان انسانی برای ارتباط با نیازمندان و تضمین تداوم مراقبت حتی در مواقع اختلال میتواند موثر باشد. برخی از گروهها که به طور ویژه آسیبپذیر هستند، میتوانند از پشتیبانی هدفمند مبتنی بر هوش مصنوعی بهرهمند شوند. افرادی که آواره شدهاند، میتوانند از پلتفرمهای دیجیتال برای ترسیم نیازها و دستیابی به مسکن، اشتغال و خدمات روانی-اجتماعی استفاده کنند. بدین ترتیب، سلامت روان در مسیر وسیعتر بهبودی روانی-اجتماعی ادغام میشود.
برخی از مزایای هوش مصنوعی در این حوزه به شرح زیر هستند.
۱.هوش مصنوعی با شناسایی زودهنگام نگرانیهای رشدی یا رفتاری کودکان میتواند آموزگاران و مراقبان را یاری دهد و آنها را به سوی مسیرهای آگاهی از تروما هدایت کند.
۲.سربازان میتوانند از فناوریهای مبتنی بر هوش مصنوعی برای تشخیص علائم اولیه اختلال آسیب پس از سانحه یا افسردگی استفاده کنند و متخصصان را قادر سازند تا موارد فوری را در اولویت قرار دهند و منابع را به طور مؤثر به کار بگیرند.
۳.جانبازان بازگشته از جنگ میتوانند از سیستمهای هوش مصنوعی بهرهمند شوند که مشاوره، توانبخشی، مزایای اجتماعی و پشتیبانی شغلی را هماهنگ میکنند.
۴.فناوریهای هوش مصنوعی کمککننده به پزشک میتوانند روند پیشروی علائم را ردیابی کنند و بار اداری را کاهش دهند.
این کاربردهای بالقوه نشان میدهند که هوش مصنوعی نمیتواند و نباید جایگزین مراقبتهای انسانی شود. هوش مصنوعی، دامنه دسترسی را گسترش میدهد، تأخیرها را کاهش میدهد و در لحظات اختلال، تداوم را فراهم میکند، اما نباید یک مداخله فنی باشد، زیرا اساسا یک مداخله اجتماعی است.
اثربخشی هوش مصنوعی به تعبیه آن در سیستمهای آگاه از تروما و مبتنی بر جامعه بستگی دارد که به حریم خصوصی، برابری و کرامت انسانی احترام میگذارند. به عبارت دیگر، هوش مصنوعی باید شکاف اجتماعی را پر کند و از مراقبتهای انسانی حمایت کند، نه این که جایگزین آن شود.
هوش مصنوعی نمیتواند و نباید جایگزین مراقبتهای انسانی شود.
نقش هوش مصنوعی در اصل مسیریابی، علامتگذاری و کمکرسانی است. این فناوری، مجوز درمان به جای متخصصان انسانی را به ویژه در جمعیتهای آسیبدیده ندارد. این فناوری میتواند از تشخیص اولویتبندی و بحران پشتیبانی کند، پیامهای پرخطر را شناسایی کند و در عرض چند دقیقه به پاسخدهندگان انسانی هشدار دهد. همچنین، هوش مصنوعی میتواند به غربالگری در سطح جمعیت، تحلیل سیگنالها در مقیاس بزرگ و حفاظتهای قوی از حریم خصوصی کمک کند. فناوریهای چندوجهی هوش مصنوعی میتوانند به پزشکان در ترکیب دادههای گفتاری، متنی و ویدیویی کمک کنند تا علائم را به مرور زمان تحت نظر بگیرند.
کاری که هوش مصنوعی نمیتواند انجام دهد، جایگزینی همدلی انسانی، توضیح دادن جنگ برای یک کودک یا التیام غم و اندوه است. هوش مصنوعی باید همیشه موارد پرخطر را به متخصصان آموزشدیده ارجاع دهد. هوش مصنوعی میتواند نقش مکمل را ایفا کند، اما همیشه به عنوان همراه انسانها حضور خواهد داشت، نه جایگزین آنها.

هوش مصنوعی در برابر درمانگران انسانی
به نقل از سایکولوژی تودی، پژوهش سال ۲۰۲۵ «دانشگاه بینالمللی کییف»(Kyiv International University) نشان میدهد که چتباتهای هوش مصنوعی میتوانند اضطراب را در زمان جنگ کاهش دهند، اما درمان انسانی نتایج بهتری داشته است.
پژوهشگران یک آزمایش تصادفی کنترلشده را با ۱۰۴ زن ساکن مناطق جنگی فعال در اوکراین انجام دادند که همگی به اختلالات اضطرابی مبتلا بودند. نیمی از آنها سه بار در هفته تحت درمان سنتی با روانشناسان دارای مجوز قرار گرفتند. نیمی دیگر از یک چتبات هوش مصنوعی به نام «فرند»(Friend) استفاده کردند که برای ارائه پشتیبانی روانشناختی و پاسخگویی در لحظه به احساسات طراحی شده است.
پژوهشگران پشتیبانی چتبات هوش مصنوعی را با رواندرمانی انسانی در شرایط جنگی مداوم مقایسه کردند. شرکتکنندگان با استفاده از فناوریهای بالینی استاندارد در آغاز و پایان یک مداخله هشتهفتهای ارزیابی شدند.
چتبات فرند از طریق پردازش زبان طبیعی و یادگیری ماشینی، پشتیبانی روزانه را براساس تقاضا ارائه میداد و از روشهایی مانند درمان شناختی رفتاری و مصاحبه انگیزشی بهره میبرد. این نوع درمانها توسط چتباتهای هوش مصنوعی راحتتر ارائه میشوند، زیرا هر دو در مقایسه با سایر درمانها کمتر مبتنی بر رابطه هستند. گروه کنترلشده از طریق جلسات ویدیویی منظم یا حضوری به درمانگران زنده دسترسی داشتند.
هر دو گروه از نظر آماری کاهش قابل توجهی را در اضطراب تجربه کردند، اما گروه درمانگر شاهد کاهش ۴۵ درصدی در «مقیاس همیلتون»(Hamilton scale) و کاهش ۵۰ درصدی در «مقیاس بک»(Beck scale) بود که به طور قابل توجهی بیشتر از کاهش ۳۰ درصدی و ۳۵ درصدی مشاهدهشده در گروه چتبات بود.
هوش مصنوعی هنوز نمیتواند با ظرافت عاطفی و عمق درمانی ارتباط انسانی برابری کند.
این نتایج، آنچه را که بسیاری از پزشکان و متخصصان سلامت دیجیتال گمان میکردند، تأیید میکنند و نشان میدهند که هوش مصنوعی هنوز نمیتواند با ظرافت عاطفی و عمق درمانی ارتباط انسانی برابری کند. با وجود این، مهمترین نکته قابل توجه چیز دیگری است.
ارزش واقعی هوش مصنوعی نه در جایگزینی درمانگران، بلکه در گسترش مراقبت در مناطقی است که درمانگران نمیتوانند به آنها دسترسی داشته باشند. در این پژوهش، چتبات فرند برای زنانی که در منطقه جنگی زندگی میکردند و از پشتیبانی انسانی نامنظم یا غیرقابل دسترس برخوردار میشدند، بسیار ارزشمند بود. این چتبات ۲۴ ساعته و هفت روز هفته در دسترس بود و مقیاسپذیر، مقرونبهصرفه و سازگار ظاهر شد. چتبات هوش مصنوعی توانست حس تداوم، ساختارمندی و حمایت عاطفی اولیه را ارائه کند و علائم اضطراب را کاهش دهد؛ هرچند به اندازه درمانگران انسانی شفابخش نبود.
خطرات بهکارگیری هوش مصنوعی در حوزه سلامت روان
به نقل از گلوبال پالیسی ژورنال، کارآییهای هوش مصنوعی واقعی هستند، اما این فناوری به همان اندازه نیز میتواند خطر داشته باشد.
برخی از این خطرها به شرح زیر هستند.
۱.در صورت استفاده نادرست، سیستمهای خودکار ممکن است پریشانی را به اشتباه تفسیر کنند یا نتوانند با درک متقابل پاسخ دهند.
۲.هوش مصنوعی ممکن است از جمعیتهای آواره بخواهد تا دادههای حساس را به اشتراک بگذارند که این امر نگرانیهایی را درباره حریم خصوصی و آسیبهای مجدد ایجاد میکند.
۳.الگوریتمهایی که براساس دادههای بهدستآمده از جمعیتهای ممتاز آموزش دیدهاند، اگر با دقت با جمعیت متنوع تطبیق داده نشوند، ممکن است نابرابریها را تشدید کنند.
استقرار مسئولانه در مناطق جنگزده مستلزم نظارت مستمر، گزارشدهی شفاف و نظارت مشارکتی است تا تضمین کند که فناوری، دایره مراقبت را گسترش دهد، نه این که آن را محدود کند. همسو کردن هوش مصنوعی با فلسفه «حالت چطور است؟» تضمین میکند که فناوری، بافت اجتماعی را تقویت کند و به محافظت از کرامت انسانی بپردازد.
هوش مصنوعی پتانسیل گسترش دامنه مداخلات، شخصیسازی حمایت و تقویت تابآوری را دارد، اما تنها در صورتی که نابرابریهای ساختاری را کاهش دهد، نه این که آنها را تقویت کند.
این ملاحظات اهمیت جهانی دارند. مناطق آسیبدیده از جنگ در سراسر جهان با چالشهای مشابهی روبهرو هستند که از جمله آنها میتوان به آسیبهای گسترده، سیستمهای اجتماعی از هم پاشیده و دسترسی محدود به مراقبتهای سلامت روان اشاره کرد. هوش مصنوعی پتانسیل گسترش دامنه مداخلات، شخصیسازی حمایت و تقویت تابآوری را دارد، اما تنها در صورتی که نابرابریهای ساختاری را کاهش دهد، نه این که آنها را تقویت کند. هوش مصنوعی مطمئناً میتواند کمک کند، اما تنها در صورتی که در خدمت عدالت، برابری و ارتباط انسانی به کار گرفته شود.
انتهای پیام

