فالأدوات التي تعتمد على الخوارزميات والتي أصبحت فاعلة على نطاق واسع في عمليات التشخيص واكتشاف الأمراض اصطبغت ببعض الميول البشرية ومنها التمييز العنصري، مما قد يجعل البعض لا يتلقوا الخدمات الطبية والصحية التي يستحقونها، ويبدو الإشكال مستفحلا إذا ما تحكم الذكاء الاصطناعي في تحديد الأولوية على قائمة الإنتظار للمرضى الذين يستحقون زراعة الأعضاء.
وهكذا يصبح إنقاذ حياة إنسان مرهون بتلك الآلية والتقنية التي اعتمدت الخوارزميات لديها على بيانات يتحكم فيها البشر.
وقد نشرت دورية الطب الباطني العام (Journal of General Internal Medicine) دراسة أشارت إلى أن إحدى الخوارزميات المستخدمة في تقييم وظائف الكُلَى لدى المرضى كثيراً ما تبالغ في تقدير صحة المرضى ذوي الأصول الأفريقية المصابين بمرض الكُلَى المزمن (CKD)، ما يؤدي في النهاية إلى تلقيهم رعاية أقل تخصصا وأوضحت أن الأمر يصل في بعض الأحيان إلى رفض وضع المرضى السود على قوائم انتظار عمليات زراعة الكُلَى، الأمر الذي يتسبب في تفاوت معدلات تلقي الرعاية الصحية عبر المجموعات العرقية المختلفة.
وتوضح الدراسة أن أحد المُعامِلات التي تعتمد عليها الخوارزمية هو مُعامل العرق الذي يدفع الخوارزمية في نهاية المطاف إلى اتخاذ قرارات غير عادلة؛ لأنه يحدد قيماً أعلى لمعدل الترشيح الكبيبي للمرضى الأميركيين من أصل أفريقي.
أُجريت الدراسة على بيانات 56,845 مصاباً بمرض الكُلَى المزمن في مدينة بوسطن الأميركية، من بينهم 2,225 (3.9%) مريضاً من أصل أفريقي.
وخلصت النتائج إلى أن أكثر من ثلث المرضى السود (743 مريضاً) كان سيتم تصنيفهم في مرحلة أكثر خطورة إذا تم استبعاد معامل العرق من المعادلة التي تعتمد عليها الخوارزمية، وبالتالي كان من الممكن أن يتلقوا رعاية طبية أفضل لو لم تكن الخوارزميات متحيزة عنصرياً، ولو تم تقدير نتائجهم باستخدام نفس الصيغة المستخدمة مع المرضى البيض.
وتشير الدراسة أيضاً إلى أن إعادة حساب نتائج فحوصات 64 مريضاً أسود -بعد استبعاد معامل العرق- نقلتهم إلى المرحلة الرابعة، وبالتالي أصبحوا مؤهلين للحصول على مكان في قائمة الانتظار للخضوع لعملية زراعة كُلَى.
بينما لم تُقّيم الخوارزمية حالة أي من هؤلاء المرضى بأنه في حاجة لعملية زرع ولم تضع أياً منهم في قائمة الانتظار. تكمن أهمية هذه الدراسة في أنها تلقي الضوء على مشكلة متغلغلة في مختلف تطبيقات الذكاء الاصطناعي، ألا وهي التمييز العنصري.
وقد تزايدت الأدلة خلال السنوات الماضية على التحيز الذي تمارسه خوارزميات الذكاء الاصطناعي ضد ذوي الأصول الأفريقية بشكل خاص، إضافة إلى التمييز على أساس الجنس والعرق و العمر .