وهناك خطر جسيم ينطوي على ذلك، لأن البيانات المستخدمة في هذه البرامج تعتمد على مدى معرفتنا وميولنا وتحيزنا حيال المادة موضوع البرنامج.
ويؤكد خبير البيانات الكبيرة والذكاء الاصطناعي لدى شركة تليفونيكا، ريتشارد بنيامينز، أن «البيانات هي انعكاس للواقع، فإذا كنا متحيزين، فإن البيانات تكون متحيزة كذلك».
ويضيف قائلاً «من الضروري التحقق من أن بيانات التدريب لا تحتوي على تحيز، وتركز على تحليل النسب الإيجابية والسلبية، والأهم من ذلك ألا تكون لدينا لوغاريتمات تمييزية بطريقة غير محببة في مجالات القانون، أو القروض، أو القبول بالمدارس».
وتقدم المديرة الإدارية للذكاء التطبيقي في شركة إكسنتشر الاستشارية، إيزابيل فرنانديز، مثالاً لمنح القروض أوتوماتيكياً.
وتقول: «تخيل أن معظم المتقدمين للحصول على قروض في الماضي كانوا من الرجال، وأن القليل من النساء اللواتي تمت الموافقة على حصولهن على قرض، استطعن أن يتغلبن على مثل هذه المعايير الصارمة ويسددن ديونهن، إذا استخدمنا هذه البيانات وأي شيء آخر، فإن النظام سيخلص إلى أن النساء أفضل في التسديد من الرجال، وهو مجرد انعكاس لأحكام الماضي».
لكن في العديد من المناسبات، تتعرض النساء للأذى بسبب هذا النوع من التحيز.
ومع هذا النوع من القرارات، من الصعب من البداية إدراج أي رأي لمجموعات من الأقليات، أو نسبة 50٪ من السكان الآخرين، والتي قد تتكون في بعض الأحيان من النساء، كما تقول الباحثة في علم الروبوتات والذكاء الاصطناعي بجامعة كارلوس الثالث، نيريا لويس مينغويزا.
وتعتقد أن المجموعات الأقل تمثيلاً، تتأثر بشكل كبير من مثل هذه المنتجات التقنية. على سبيل المثال، تفشل أنظمة التعرف إلى الصوت في التعرف إلى أصوات النساء والأطفال في كثير من الأحيان.
ومن المرجح أن تشعر الأقليات بآثار هذا التحيز، كما يقول رئيس الذكاء الاصطناعي ومركز تحليل البيانات بشركة ويفسبيس، خوسيه ماريا لوسيا.
ويضيف قائلاً «إن عدد الحالات التي تتاح لها فرصة للتدريب سيكون أقل، وإن أي مجموعة من الذين عانوا التمييز من أي نوع في الماضي ستتأثر بذلك، لأننا من خلال استخدام البيانات التاريخية، نتحيز من غير قصد لأشخاص معينين».
وهذه هي الحال مع السكان الأميركيين من أصل إفريقي في الولايات المتحدة، وفقاً لكبير المديرين في شركة إكسنتشر، خوان ألونسو: «لقد ثبت أنه إذا تم القبض على واحد منهم بتهمة تدخين الماريغوانا في الأماكن العامة، أو امتلاك كميات صغيرة منها، فإنه سيكون عرضة للسجن في الوقت الذي لا يتعرض فيه للسجن الرجل الأبيض إذا ارتكب الجنحة نفسها».
وهذا يعني أن هناك نسبة أعلى من السود في قاعدة البيانات، وأن أي لوغاريتمات يتم تعريفها على مثل هذه البيانات ستتضمن تحيزاً عنصرياً.
وتشرح مصادر في «غوغل» أنه ينبغي «توخي الحذر الشديد» بشأن الموافقة على قرار يعتمد على ماكينة الذكاء الآلي، لأن الذكاء الاصطناعي يستند على البيانات الموجودة، وفي النهاية يجب أن يدرك البشر أنه ليس عليهم بالضرورة تقديم نتائج لا تشوبها شائبة.
وغالباً تكون الآلات عبارة عن صندوق مملوء بأسرار غير قابلة للتغيير حتى لمطوريها أنفسهم، الذين لا يستطيعون التكهن بالمسار الذي تتخذه هذه الأسرار، للوصول إلى نتيجة معينة.
يقول ألونسو: «عندما تتم محاكمتك عادة تحصل على تفسير للحكم الصادر بحقك، لكن المشكلة في أن هذا النوع من اللوغاريتمات غير شفاف، الأمر شبيه بوجودك أمام عرافة تصدر بحقك حكماً».
ويشرح ذلك بإسهاب، قائلاً «تخيل أنك ذاهب إلى مهرجان في الهواء الطلق، وعندما تصل إلى الصف الأمامي، يقوم فريق الأمن بركلك وطردك دون أي نوع من التفسير، ستغضب بالطبع، لكن إذا قيل لك من البداية إن الصف الأول مخصص للأشخاص ذوي الإعاقة، فلن تكون غاضباً وستعود إلى الخلف راضياً، والأمر نفسه ينطبق بشأن اللوغاريتمات: إذا لم نجد تفسيراً لما يحدث، يمكن أن يولد ذلك لدينا شعوراً بعدم الرضا».