أمريكا تحاول ابعاد البشر من الحروب ضد الصين

الرؤية الإخبارية المصرية، دبي، الإمارات العربية المتحدة:- يخطط الجيش الأمريكي لاختبار قواته العسكرية وأنظمة الذكاء الاصطناعي الحالية -التي تتطلب وجود إنسان في الحلقة- ضد القوات التي لديها أنظمة ذكاء اصطناعي ذاتية التدمير.

قادة عسكريون أمريكيون يخشون من أن الصين تطور تكنولوجيا أنظمة الأسلحة الفتاكة ذاتية التشغيل

نشرت صحيفة "نيويورك تايمز" الأمريكية، تقارير تفيدا بأن القادة العسكريون الأمريكيون بدأوا يدعمون بشكل متزايد إخراج البشر من معادلة المعارك، وإسناد الحروب للأسلحة التي يتحكم فيها الذكاء الاصطناعي، وبحسب التقارير فلا يوجد شيء في السياسة الأمريكية الحالية يمنع القيام بذلك.

ولا تحظر سياسة الولايات المتحدة تطوير أو توظيف أنظمة الأسلحة الفتاكة ذاتية التشغيل(LAWS)، على الرغم من أن الولايات المتحدة لا تمتلك حالياً أنظمة الأسلحة الفتاكة ذاتية التشغيل في مخزونها.

بعض كبار القادة العسكريين ذكروا أن الولايات المتحدة قد تضطر إلى تطوير أنظمة الأسلحة الفتاكة ذاتية التشغيل في المستقبل إذا اختار خصوم الولايات المتحدة المحتملون القيام بذلك.

في الوقت نفسه يناشد عدد متزايد من الدول والمنظمات غير الحكومية المجتمع الدولي لتنظيم أو حظر منظومات الأسلحة الفتاكة ذاتية التشغيل لأسباب أخلاقية.

الجيش الأمريكي لديه برنامج يسمى "مشروع التقارب"، تتمثل مهمته في ربط مختلف مجالات البيانات والمعلومات والقيادة والسيطرة العسكرية معاً من أجل تسهيل ساحة معركة مبسطة.

يخشى القادة العسكريون الأمريكيون أن تصبح عملية صنع القرار البشري التقليدية من الماضي؛ "لأننا لا نستطيع أن نتفاعل بسرعة مثل الذكاء الاصطناعي".

ولهذا السبب سيجري "مشروع التقارب" سلسلة من المناورات الافتراضية ضد عدو افتراضي وهو الصين.

يخشى بعض القادة العسكريين الأمريكيين من أن الصين تطور تكنولوجيا أنظمة الأسلحة الفتاكة ذاتية التشغيل، ويؤكدون أن الجمهورية الشعبية لن يكون لديها نفس المخاوف الأخلاقية مثل خصومها المحتملين.

في الخريف القادم سيبدأ الجيش الأمريكي بإنشاء النسخة الافتراضية ومتابعة قدرة قواته في مجاراة الأنظمة الصينية التي تعتمد بشكل كامل على الذكاء الاصطناعي ومتابعة نتائج المعركة.

ونقلت الصحيفة عن بعض القادة اندفاعهم للاعتماد على الذكاء الاصطناعي، ويحاولون إقناع الكونغرس بشتى الطرق للتحول إلى تلك الأنظمة.

وهذا هو بالضبط ما يحذر منه كل متخصص في أخلاقيات الذكاء الاصطناعي، خاصة عملية إخراج البشر من اللعبة والسماح لأنظمة الأسلحة الفتاكة ذاتية التشغيل باتخاذ قرار القتل، وهو ما يصفونه بأنه "أكثر من مجرد منحدر، إنها القنبلة الذرية التالية".