فناوری جدید با بررسی گفتار افراد علایم اولیه آلزایمر را شناسایی می کند

محققان دانشگاه آلبرتا برای تشخیص علایم اولیه زوال عقل ناشی از آلزایمر با گوش دادن به نحوه صحبت کردن افراد از یک مدل یادگیری ماشینی استفاده کردند.

به گزارش آماج از تارنمای گلوبال نیوز، محققان دانشگاه آلبرتا در کانادا راهی برای تشخیص علائم اولیه بیماری آلزایمر یافته اند. آنها از یک مدل یادگیری ماشینی برای تشخیص نشانه های صوتی استفاده کردند. این نشانه های صوتی الگوهای گفتاری خاصی هستند که با تشخیص آلزایمر یا سایر اشکال زوال عقل ارتباط دارند.

زهرا شاه، دانش آموخته دانشگاه آلبرتا و محقق اصلی این پژوهش گفت: ما علاقه مندیم به گفتار که پنجره ای به ذهن انسان می گشاید، نگاه کنیم. ایده ما این است که به گفتار به عنوان یک نشانگر زیستی بالقوه نگاه کنیم تا بتوانیم الگوهایی را شناسایی کنیم که ممکن است به تشخیص و کنترل اختلالات روانپزشکی مانند زوال عقل ناشی از آلزایمر کمک کنند.

این فناوری به بررسی سه ویژگی می پردازد: مکث در گفتار، طول یا پیچیدگی کلمه و قابل فهم بودن گفتار.

شاه توضیح داد: در بیماران مبتلا به زوال عقل، چون ممکن است نیاز به یادآوری بیشتر باشند، معمولا کلمات را فراموش می کنند و برای یادآوری کلمات به زمان نیاز دارند، بنابراین مکث های طولانی تری وجود خواهد داشت.

وی افزود: یک کلمه طولانی‌تر، پیچیدگی گفتاری بیشتری در مقایسه با کلمات کوتاهتر دارد. طولانی تر بودن کلمه، یک عامل پیچیدگی گفتار است. فرضیه ای که اینجا مطرح است این است که بیماران مبتلا به زوال عقل در مقایسه با افراد سالم پیچیدگی گفتاری کمتری دارند.

محققان ۲۳۷ فرد انگلیسی زبان و ۴۶ فرد یونانی زبان را به دو گروه تقسیم کردند. نیمی از آنها زوال عقل داشتند و نیم دیگر افراد گروه کنترل بودند.

این مدل توانست با دقت ۷۰ تا ۷۵ درصد بیماران آلزایمر را از افراد سالم تشخیص دهد.

شاه گفت: این شیوه مانند یک ابزار پشتیبانی برای تشخیص بالینی است، اما این ابزار به تنهایی یک ابزار تشخیصی نیست و به یک متخصص در روند تشخیص نیاز است.

این محقق اظهار داشت: این اولین گام است، تریاژ کردن(دسته بندی بیماران)، غربالگری برای جمعیت های بالقوه در معرض خطر و احتمالاً شناسایی افراد پرخطر و نیز درخواست انجام غربالگری های تکمیلی گام های بعدی است.

این فناوری قرار نیست جایگزین تشخیص بالینی شود. محققان امیدوارند این فناوری در نهایت به دسترسی آسان و قاعده مند بیماران به ابزار تشخیص زودهنگام بینجامد که برای همه افراد دارای گوشی هوشمند قابل دسترس باشد.

این پروژه هنوز در مراحل اولیه است، اما محققان فکر می‌کنند قابلیت بالایی دارد و می‌تواند به صورت یک اپلیکیشن قالب‌بندی شود که به طور مداوم نظارت انجام نمی دهد، اما فرد می تواند برنامه را باز و از آن استفاده کند. برای مثال، می‌توانید از برنامه بخواهید که هر روز از شما بپرسد روزتان چطور می‌گذرد؟ و فرد به‌طور خودجوش پاسخ می‌دهد و برنامه می‌تواند در پس‌زمینه، به طور بالقوه به ویژگی‌های سخنان شما نگاه کند تا ببیند چه تغییراتی کرده است.

با این شیوه همچنین فرصت هایی برای افزایش دسترسی به مراقبت های بهداشتی وجود دارد.

شاه گفت: ما دریافتیم گفتار به عنوان یک نشانگر زیستی و از دیدگاه مراقبت‌های بهداشت روانی از راه دور واقعا جالب است. می توانیم به قابلیت استفاده از این نوع فناوری برای سلامت از راه دور و نظارت بر سلامت روان از راه دور فکر کنیم.

و از آنجا که به کلمات خاصی گوش نمی دهد، بلکه به مکث ها و طول کلمات توجه می کند،‌ می تواند به طور گسترده در هر زبانی استفاده شود.

شاه گفت: بدون نگاه کردن به محتوای واقعی زبان، به نمونه‌های گفتاری نگاه می‌کنیم، زیرا به ویژگی‌هایی می نگریم که در زبان‌های مختلف وجود دارند. بنابراین روی محتوای کلمه تمرکز نمی کنیم، بلکه به ویژگی‌های دیگر توجه داریم.

این پژوهشگر ادامه داد: ما به دنبال ابزاری مستقل از ویژگی های زبانی هستیم که می‌تواند همین کار را انجام دهد. می‌خواهیم این فناوری در بسیاری از زبان‌های مختلف مورد استفاده قرار گیرد، بنابراین دیگر به زبان انگلیسی محدود نخواهیم شد و این همان جایی است که ظرفیت توسعه پذیری وجود دارد.

این مدل یادگیری ماشینی در مقاله‌ای منتشر شده است. این تیم تحقیقاتی در چالش بزرگ پردازش سیگنال ICASSP ۲۰۲۳ (کنفرانس بین المللی آکوستیک، گفتار و پردازش سیگنال) رتبه اول آمریکای شمالی و چهارم جهان را کسب کرد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

چهار × 2 =

آخرین اخبار