به گزارش ایسنا، یک رابط مغز و رایانه جدید مجهز به هوش مصنوعی، توانایی گفتار را به یک بازمانده از سکته مغزی بازگرداند و تأخیر این بازیابی را از ۸ ثانیه به ۱ ثانیه کاهش داد.
به نقل از آیای، هجده سال پس از سکته مغزی که منجر به فلج تقریباً کامل «آن جانسون»(Ann Johnson) شد، وی به لطف رابط مغز و رایانه(BCI) که گفتار را مستقیماً از فعالیت مغز رمزگشایی میکند، دوباره صدای خود را شنید.
جانسون که در آن زمان ۳۰ ساله بود، معلم و مربی دبیرستان در کانادا بود. سپس یک سکته مغزی در سال ۲۰۰۵ باعث سندرم قفلشدگی در وی شد که یک بیماری نادر است که در آن فرد هوشیار میماند، اما قادر به صحبت یا حرکت نیست.
از آن زمان، او با استفاده از یک سیستم ردیابی چشم تنها میتوانست ۱۴ کلمه در دقیقه بگوید و ارتباط برقرار کند که با سرعت مکالمه طبیعی حدود ۱۶۰ کلمه در دقیقه بسیار فاصله داشت.
وی در سال ۲۰۲۲، سومین شرکتکننده در یک کارآزمایی بالینی به رهبری محققان دانشگاه کالیفرنیا برکلی و دانشگاه کالیفرنیا سانفرانسیسکو شد که با هدف بازیابی گفتار برای افراد مبتلا به فلج شدید انجام شد.
این تیم از یک پروتز عصبی استفاده کرد که سیگنالهای قشر حرکتی گفتار را ضبط میکند و با دور زدن مسیرهای عصبی آسیبدیده، کلمات قابل شنیدن تولید میکند.
تبدیل فکر به صدا
این دستگاه به یک ایمپلنت که روی ناحیه تولید گفتار مغز قرار میگیرد، متکی است. وقتی جانسون سعی میکند صحبت کند، ایمپلنت، فعالیت عصبی را تشخیص میدهد و سیگنالها را به یک رایانه متصل ارسال میکند. سپس یک رمزگشای هوش مصنوعی این سیگنالها را به متن، گفتار یا انیمیشن صورت روی یک آواتار دیجیتال ترجمه میکند.
در ابتدا، این سیستم از مدلهای هوش مصنوعی توالی به توالی استفاده میکرد که قبل از تولید خروجی به یک جمله کامل نیاز داشتند و یک تأخیر هشت ثانیهای ایجاد میکردند. در مارس ۲۰۲۵، این تیم گزارش داد که به یک معماری جریانی روی آوردهاند که امکان ترجمه تقریباً بیدرنگ را تنها با یک ثانیه تأخیر فراهم میکند.
محققان برای شخصیسازی این تجربه، صدای جانسون را از روی صدای ضبطشده سخنرانی عروسیاش در سال ۲۰۰۴ بازسازی کردند. او همچنین یک آواتار برای مطابقت با ظاهرش انتخاب کرد که میتواند حالات چهره مانند لبخند یا اخم را تقلید کند.
مهندسی برای استفاده روزمره
گوپالا آنومانچیپالی(Gopala Anumanchipalli)، استادیار مهندسی برق و علوم کامپیوتر در دانشگاه برکلی و ادوارد چانگ(Edward Chang)، جراح مغز و اعصاب در دانشگاه کالیفرنیا سانفرانسیسکو و کایلو لیتلجان(Kaylo Littlejohn)، دانشجوی دکترای دانشگاه برکلی میگویند هدف این است که پروتزهای عصبی، «قابل اتصال و اجرا» شوند و از سیستمهای آزمایشی به ابزارهای بالینی استاندارد تبدیل شوند.
پیشرفتهای آینده میتواند شامل ایمپلنتهای بیسیم، حذف نیاز به اتصالات مستقیم کامپیوتر و آواتارهای واقعگرایانه برای تعاملات طبیعیتر باشد.
این تیم ایجاد همزادهای دیجیتالی را در نظر دارد که نه تنها صدای کاربر، بلکه سبک مکالمه و نشانههای بصری او را نیز شبیهسازی کنند.
این پیشرفت میتواند به جمعیت نسبتاً کوچک اما بسیار آسیبپذیر، از جمله افرادی که به دلیل سکته مغزی، ALS یا آسیبدیدگی، توانایی صحبت کردن را از دست دادهاند، کمک کند تا ارتباط سریعتر و طبیعیتری را بازیابی کنند.
محققان تأکید میکنند که این سیستم فقط زمانی کار میکند که شرکتکننده عمداً سعی در صحبت کردن داشته باشد و اختیار کاربر و حریم خصوصی را حفظ کند.
این آزمایش زندگی جانسون را تغییر داد. او در بیانیهای گفت: میخواهم بیماران مرا ببینند و بدانند که زندگیشان تمام نشده است.
او امیدوار است روزی به عنوان مشاور در یک مرکز توانبخشی کار کند و از یک پروتز عصبی برای صحبت با مراجعین استفاده کند.
محققان معتقدند با کاهش تأخیر به حدود یک ثانیه و پیشرفتهای مداوم در مدلسازی هوش مصنوعی، بازیابی عملی و بیدرنگ گفتار میتواند تنها در عرض چند سال محقق شود و نحوه ارائه صدا به کسانی که صدای خود را از دست دادهاند، توسط فناوری تغییر یابد.
انتهای پیام
نظرات