به گزارش ایسنا، پژوهشگران حوزه پزشکی در برخی موسسات در کانادا، ایالات متحده و ایتالیا در آزمایشهای خود از دادههایی استفاده میکنند که توسط هوش مصنوعی (AI) و از اطلاعات واقعی بیماران ساخته شدهاند، بدون اینکه نیازی به گرفتن اجازه از هیئتهای اخلاقی نهادیشان داشته باشند.
برای تولید آنچه «دادههای مصنوعی» نامیده میشود، پژوهشگران مدلهای مولد هوش مصنوعی را با استفاده از اطلاعات واقعی پزشکی انسان آموزش میدهند، سپس از مدلها میخواهند مجموعهدادههایی با ویژگیهای آماری که نماینده دادههای انسانی هستند اما خود دادههای انسانی را شامل نمیشوند، بسازند.
بهطور معمول، زمانی که پژوهش شامل دادههای انسانی است، یک هیئت اخلاقی باید بررسی کند که مطالعات چگونه بر حقوق، ایمنی، کرامت و رفاه شرکتکنندگان اثر میگذارد. با این حال، مؤسساتی از جمله بیمارستان پژوهشی IRCCS Humanitas در میلان ایتالیا، بیمارستان کودکان (Eastern Ontario (CHEO در اتاوا و بیمارستان اتاوا، و دانشکده پزشکی دانشگاه واشنگتن در سنتلوئیس، میزوری، این الزامات را برای پژوهشهای شامل دادههای مصنوعی کنار گذاشتهاند.
"خالد ال امام" پژوهشگر هوش مصنوعی پزشکی در موسسه پژوهشی CHEO و دانشگاه اتاوا میگوید: دلایلی که موسسات برای توجیه این تصمیم استفاده میکنند متفاوت است. با این حال، مزایای بالقوه استفاده از دادههای مصنوعی شامل حفاظت از حریم خصوصی بیماران، امکان آسانتر به اشتراکگذاری دادهها بین مراکز و سرعت بخشیدن به پژوهش است.
"فیلیپ پین" معاون ریاست دانشگاه در حوزه انفورماتیک زیستپزشکی و علوم داده، و مدیر مؤسسه انفورماتیک، علم داده و آمارزیستی آن میگوید : دانشگاه واشنگتن، که در سال ۲۰۲۰ شروع به کنار گذاشتن بررسی اخلاقی برای چنین پژوهشهایی کرد، در میان نخستین مؤسسات ایالات متحده بود که دادههای مصنوعی را در مقیاس وسیع در علم پزشکی به کار گرفت.
"پین" میگوید که مجموعهدادههای مصنوعی تحت «قانون مشترک فدرال ایالات متحده ۱۹۹۱» (US federal Common Rule)، که استانداردهای اخلاقی پژوهشهای شامل انسان را اداره میکند، «پژوهش روی سوژه انسانی» محسوب نمیشوند. او اضافه میکند این به این دلیل است که دادهها حاوی هیچ اطلاعات واقعی یا قابل ردیابی بیمار نیستند. بنابراین هیئت بازبینی نهادی دانشکده پزشکی واشنگتن پروژههایی را که از چنین مجموعهدادههایی استفاده میکنند، پژوهش انسانی به حساب نمیآورد و نیازی به بررسی آنها نمیداند.
"ساوریو دآمیکو" رهبر تیم هوش مصنوعی میگوید: در ایتالیا، دانشمندان مرکز هوش مصنوعی Humanitas از سال ۲۰۲۱ دادههای مصنوعی را در پژوهش بررسی میکنند. دآمیکو و همکارانش همچنین میتوانند از گرفتن رضایت هیئتهای بازبینی اخلاقی اجتناب کنند اگر آنها دادهها را با استفاده از اطلاعاتی بسازند که از بیمارانی گردآوری شده است که برای تحلیل دادهها در اهداف هوش مصنوعی رضایت دادهاند.
Humanitas آزادی بیشتری برای استفاده از دادههای مصنوعی بدون بررسی اخلاقی نسبت به بسیاری از سازمانهای دیگر ایتالیا داشته است، زیرا یک بیمارستان پژوهشی سطح بالا است. وزارت بهداشت ایتالیا این وضعیت را به تعداد کمی از موسسات اعطا میکند، و آنها را بهعنوان معیارهایی برای نوآوری و مراقبت باکیفیت از بیماران علامتگذاری میکند.
در همین حال، در انتاریو، «قانون حمایت از اطلاعات سلامت شخصی ۲۰۰۴» میگوید که ایجاد اطلاعات غیرشخصی که هویتهای فردی را پنهان میکند نیازی به رضایت بیمار ندارد.
بیمارستانهای کانادایی پس از تحلیلهای حقوقی در سال ۲۰۲۴ تصمیم گرفتند بررسی هیئتهای اخلاقی را کنار بگذارند. تحلیلها نتیجه گرفتند که دادههای مصنوعی ساختهشده توسط هوش مصنوعی ممکن است اطلاعات سلامت شخصی محسوب نشوند. بنابراین، مانند دانشکده پزشکی واشنگتن، هیئت CHEO نتیجه گرفت که استفاده از دادههای مصنوعی در پژوهش نیازی به نظارت هیئت اخلاقی پژوهش بیمارستان ندارد چون در تعریف پژوهش انسانی نمیگنجد.
با این حال، مطالعاتی که در آن پژوهشگران به دادههای بیماران دسترسی دارند تا مجموعهدادههای مصنوعی بسازند، نیاز به تأیید هیئت اخلاقی دارند.
ناشناسسازی که دادههای مصنوعی فراهم میکنند به مؤسسات در مکانهای مختلف اجازه میدهد بدون به اشتراک گذاشتن اطلاعات مربوط به افراد خاص، همکاری و یافتهها را به اشتراک بگذارند.
انتهای پیام
نظرات