هذه الأخلاقيات المختلفة بين المجتمعات بحسب الأنظمة السياسية والتنوعات الجغرافية تدفع المجموعة الدولية إلى الخوض في تفاصيل ليست سهلة مثل مصطلحات العدالة، الخصوصية، والتحيز.
وهذه المفاهيم تتباين إلى حد كبير وفقاً للأوضاع السياسية والاجتماعية والاقتصادية، إضافة إلى أن تحديات ومخاطر الذكاء الاصطناعي تختلف باختلاف الأماكن أيضاً.
وإذا لم تتمكن منظمات أخلاقيات الذكاء الاصطناعي من الاعتراف بهذه الاختلافات، فإنها ستخاطر بتطوير معايير ستكون، في أفضل الأحوال، عديمة المعنى وضعيفة الفعالية في جميع أنحاء العالم.
أما في أسوأ الأحوال، فقد تؤدي هذه المعايير المختلة إلى زيادة أنظمة وأدوات الذكاء الاصطناعي التي ستعزز من التحيزات الموجودة مسبقاً، والتي لا تراعي الثقافات المحلية.
فعلى سبيل المثال، كان تعامل المجتمعات والسياسات حول العالم مع جائحة كورونا مختلفة إختلافا جذريا، فبينما كانت فرصة لعدد من الدول لتسيير العديد من المرافق الحيوية باستخدام الروبوتات، والتعلم عن بعد، إلا دولا أخرى لم تستطع المواجهة.
وإذا كانت دولا كبرى اختارت مواجهة فيروس كورونا طبقا لمبدأ مناعة القطيع عن طواعية، إلى أن دولا أخرى في أفريقيا اضطرت إلى المواجهة بنفس المبدأ عن إكراه، وهنا نجد الفرق وضاحا بين "الإختيار" والإضطرار" و"الطواعية" " والإكراه".
ومن هنا تتعزز مخاوف الدول النامية من زحف الذكاء الاصطناعي، كما يعزز الظنون في أن السياسيات الكبرى حول العالم تخطط للتخلص من مليارات البشر، وهي معلومات وجدت مجالا من الرواج على فيسبوك الذي كان قد راجع إرشادات المجتمع لديه، وسياسات مراقبة المحتوى بعد أزمة ميانمار عام 2018، والأخبار المزيفة التي تم نشرها ووضعته في مواجهة الاتهام بانتهاك حقوق الإنسان.