تشير دراسات حديثة إلى أن الذكاء الاصطناعي المستخدم في مجال الرعاية الصحية قد يُظهر تحيزات تؤثر على جودة الرعاية المقدمة لمجموعات سكانية معينة. على سبيل المثال، وجدت دراسة نُشرت في Nature Medicine أن نماذج الذكاء الاصطناعي يمكن أن تُظهر تحيزات بناءً على الخصائص الاجتماعية والاقتصادية والديموغرافية للمرضى، مما يؤدي إلى تفاوتات في التشخيص والعلاج.
بالإضافة إلى ذلك، أظهرت أبحاث من جامعة روتجرز أن خوارزميات الذكاء الاصطناعي قد تعيق الرعاية الصحية للمرضى من أصول أفريقية ولاتينية بسبب التحيزات والقصور في هذه الخوارزميات.
من أجل معالجة هذه التحيزات، يوصي الخبراء بضرورة استخدام مجموعات بيانات متنوعة وشاملة عند تطوير نماذج الذكاء الاصطناعي، بالإضافة إلى اعتماد استراتيجيات للكشف عن التحيزات والتخفيف من حدتها. يُبرز تقرير من جامعة ييل أهمية الانتباه إلى هذه التحيزات لضمان عدم تفاقم الفجوات الصحية القائمة.
بالتالي، يتطلب ضمان عدالة وفعالية تطبيقات الذكاء الاصطناعي في الرعاية الصحية جهودًا مستمرة للكشف عن التحيزات ومعالجتها، مع التركيز على تطوير أنظمة تعزز المساواة في تقديم الرعاية لجميع المرضى.
الذكاء الاصطناعي يُستخدم بشكل متزايد في تحليل صور الأشعة، تشخيص الأمراض، والتوصية بالعلاجات. لكن تقارير جديدة تكشف عن وجود تحيّزات تؤثر على دقة هذه الأنظمة، خاصةً بالنسبة لبعض الفئات مثل:
-
المرضى ذوي البشرة السوداء أو البنية
-
النساء
-
أصحاب الدخل المنخفض أو غير المؤمن عليهم صحياً
🧪 نتائج الدراسة الحديثة (2025)
-
دراسة نُشرت في Nature Medicine أجريت على أكثر من مليون سجل طبي، أظهرت أن:
-
بعض خوارزميات الذكاء الاصطناعي تُعطي تقييمات مخفّفة لاحتياجات الرعاية الصحية للمرضى من الأقليات العرقية.
-
النماذج التي تستند إلى "كلفة العلاج السابقة" لتقدير مستوى المرض، تُقلل من شأن الحالات الخطيرة عند المرضى الأقل إنفاقًا (غالبًا من خلفيات فقيرة أو أقليات).
-
🔍 كيف يحدث التحيّز؟
-
تحيّز في البيانات: إذا كانت بيانات التدريب تحتوي على معلومات غير متوازنة (مثلاً غلبة بيانات مرضى من خلفية بيضاء أو من دول غنية)، سينعكس ذلك في التوصيات.
-
المعادلات المستخدمة: بعضها يقيس "الفعالية الاقتصادية" أكثر من "حاجة المريض للعلاج".
-
إغفال العوامل الاجتماعية والبيئية التي تؤثر على صحة المريض.
إرسال تعليق