هوش مصنوعی در تشخیص سرطان؛ فرصت‌ها و تهدیدهای تبعیض نظام‌مند

به گزارش آماج، پیشرفت‌های اخیر در کاربردهای پزشکی هوش مصنوعی این امید را ایجاد کرده است که فرایند تشخیص سرطان سریع‌تر، دقیق‌تر و همگن‌تر شود. مدل‌های یادگیری عمیق با تحلیل الگوهای میکروسکوپی تصاویر پاتولوژی می‌توانند خطای انسانی را کاهش دهند و متخصصان را در تصمیم‌گیری همراهی کنند. اما پژوهش‌های جدید نشان می‌دهد همین توانایی می‌تواند به مسیر انحرافی تبدیل شود و سوگیری‌های پنهان را در تشخیص بازتولید کند.

سوگیری هوش مصنوعی در تشخیص سرطان

مطالعه‌ای منتشر شده در نشریه «Cell Reports Medicine» چهار سامانه پیشرو تشخیص مبتنی بر هوش مصنوعی را از منظر عملکرد در گروه‌های جمعیتی بررسی کرده است. پژوهشگران دانشگاه هاروارد نزدیک به ۲۹ هزار تصویر پزشکی از حدود ۱۴ هزار و ۴۰۰ بیمار را تحلیل کردند و گزارش دادند که مدل‌ها در ۲۹.۳ درصد از وظایف خود سوگیری معنادار نشان داده‌اند. این بدان معناست که در حدود یک سوم موقعیت‌های تشخیصی، کیفیت طبقه‌بندی سلولی ممکن است برای گروه‌های جمعیتی خاص کاهش یابد.

یافته‌ها نشان می‌دهد مدل‌ها توانسته‌اند نشانه‌های مرتبط با سن، جنسیت و نژاد را از تصاویر استخراج کنند و به‌طور غیرمستقیم وارد تصمیم تشخیصی نمایند؛ امری که حتی برای پاتولوژیست‌های انسانی تقریباً غیرممکن است.

مکانیسم سوگیری چگونه شکل می‌گیرد؟

خطاهای ناشی از سوگیری زمانی رخ می‌دهد که مدل به جای تمرکز بر ویژگی‌های بافتی سرطان، به الگوهایی متکی شود که با گروه‌های جمعیتی همبستگی دارند. به بیان دیگر، مدل ابتدا سن، جنسیت یا نژاد را حدس زده و آن را به میانبری برای تصمیم‌گیری تبدیل می‌کند. برای نمونه، مدل‌ها نمونه‌های بیماران سیاه‌پوست را تشخیص داده‌اند زیرا تصاویر آن‌ها شامل نسبت بیشتری از سلول‌های غیرطبیعی و کمتر بودن عناصر حمایتی نسبت به تصاویر بیماران سفیدپوست بوده است. این تفاوت‌ها ممکن است ناشی از دسترسی به مراقبت، کیفیت نمونه‌برداری یا سایر عوامل محیطی باشد و نه تفاوت زیستی واقعی.

چرا شکاف داده به تبعیض عملکردی تبدیل می‌شود؟

اگر داده‌های آموزشی عمدتاً از گروه غالب تأمین شده باشد، مدل‌ها برای گروه‌های دارای نمایندگی کمتر دچار افت عملکرد می‌شوند. به‌عنوان مثال، تمایز زیررده‌های سرطان ریه در بیماران سیاه‌پوست با مشکل مواجه بوده است، حتی زمانی که داده کلی موجود بوده است. این امر موجب بازتولید ساختاری تبعیض می‌شود.

پژوهشگران هشدار می‌دهند که کیفیت و عدالت عملکرد سامانه‌های پزشکی هوش مصنوعی تنها با افزایش حجم داده تضمین نمی‌شود و نمایندگی متوازن زیرگروه‌های جمعیتی و بالینی شرط لازم است.

راهکارها و نقش سیاست‌گذاران

چارچوب آموزشی «FAIR Path» معرفی شده و ۸۸.۵ درصد از نابرابری‌های عملکردی را کاهش داده است، اما ۱۱.۵ درصد از شکاف باقی مانده نشان می‌دهد که مسئله هنوز کامل حل نشده است. پژوهشگران تأکید دارند که کنترل سوگیری باید یک الزام فنی و مقرراتی باشد و نه توصیه اخلاقی صرف. در غیر این صورت، سامانه‌ها بدون ارزیابی کافی عدالت و ایمنی وارد چرخه درمان خواهند شد.

جمع‌بندی

با قدرتمندتر شدن مدل‌های پزشکی، توانایی آن‌ها برای استخراج سیگنال‌های پنهان افزایش می‌یابد و می‌تواند سوگیری‌های جدیدی ایجاد کند. تمرکز صرف بر دقت کلی مدل کافی نیست؛ ارزیابی باید در سطح زیرگروه‌های جمعیتی انجام شود و سازوکارهای کاهش سوگیری بخشی از استاندارد توسعه و استقرار باشند. کارشناسان تأکید دارند که در غیر این صورت، ابزارهایی که با وعده افزایش عدالت و دقت وارد پزشکی شده‌اند، ممکن است نابرابری‌های موجود را تثبیت و تشدید کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوزده + چهار =

آخرین اخبار آماج

ترند ترین

آخرین مقالات آماج

ویدیو ها