وتثير التطورات السريعة في مجال الذكاء الاصطناعي قلقا في أنحاء العالم بشأن ما تنطوي عليه التكنولوجيا من قدرة على نشر المعلومات المضللة وإساءة الاستخدام وإحداث اضطرابات في سوق العمل.
وقال سميث في منتدى للأعمال إن هذه الشكوك لم ترد لدى مطوري هذه التكنولوجيا، مشيرا إلى أن تفاؤلهم ذكّره بالسنوات الأولى لمنصات التواصل الاجتماعي.
وبحسب سميث، فإنه في حينه، أصبحت صناعة التكنولوجيا “مبتهجة بعض الشيء بشأن الأمور الجيدة التي ستجلبها وسائل التواصل الاجتماعي للعالم، وهناك الكثير منها، من دون التفكير بالمخاطر أيضا”.
وأكد سميث “علينا أن نكون واضحي الرؤية ويتوجب أن نكون متحمسين للفرص، ولكن علينا أن نفكر بشكل عميق وحتى نقلق بشأن الجانب السلبي. ويتعين علينا بناء حواجز الحماية من البداية”.
وقالت دراسة للأمم المتحدة إن احتمال تعزيز الذكاء الاصطناعي للوظائف أكبر من احتمال تدميره لها، في ظل القلق المتزايد حيال التأثير المحتمل للتكنولوجيا.
مخاوف من أن تقوم روبوتات الدردشة بإغراق الإنترنت بالمعلومات المضللة أو أن تنتج الخوارزميات المتحيزة مواد عنصرية وغيرها
وتناولت الدراسة التأثير المحتمل لهذه المنصة وغيرها على كمية ونوعية الوظائف، مشيرة إلى أن معظم الوظائف والقطاعات معرّضة جزئيا فقط إلى الأتمتة.
ورجّحت الدراسة أن معظمها “سيكون على الأرجح مكمَّلا لا مستبدَلا بآخر موجة ذكاء اصطناعي توليدي مثل تشات جي.بي.تي”.
وتابع سميث أنه من الواضح أن الناس “يرغبون في أن يكونوا واثقين بأن هذه التكنولوجيا الجديدة ستظل تحت السيطرة البشرية”.
وهناك مخاوف من أن تقوم روبوتات الدردشة بإغراق الإنترنت بالمعلومات المضللة أو أن تنتج الخوارزميات المتحيزة مواد عنصرية وغيرها، أو إمكان أن تؤدي الأتمتة التي تعمل بالذكاء الاصطناعي إلى تدمير صناعات بأكملها.
وفي وقت سابق دعا سميث إلى محاسبة الأشخاص الذين يقفون وراء الذكاء الاصطناعي على أوجه القصور، وحثّ المشرعين على ضمان الأمان على الذكاء الاصطناعي المستخدم للتحكم في الشبكة الكهربائية وإمدادات المياه والبنية التحتية الحيوية الأخرى.
ويكافح المشرعون لسن قوانين تساهم في التحكم في الذكاء الاصطناعي حتى في الوقت الذي تتسابق فيه الشركات الكبيرة والصغيرة لجلب الذكاء الاصطناعي متعدد الاستخدامات إلى السوق.
وقال سميث “هذه هي الحاجة الأساسية لضمان بقاء الآلات خاضعة للرقابة الفعالة من قبل الأشخاص، وبقاء الأشخاص الذين يصممون ويشغلون الآلات مسؤولين أمام أي شخص آخر. باختصار، يجب أن نضمن دائمًا أن يظل الذكاء الاصطناعي تحت السيطرة البشرية”.
وأضاف “تتطلب القوانين الجديدة من مشغلي هذه الأنظمة بناء الأمان في أنظمة الذكاء الاصطناعي عالية الخطورة عن طريق التصميم”.
وحثّ على استخدام نظام مثل “اعرف عميلك” لمطوري نماذج الذكاء الاصطناعي القوية لمراقبة كيفية استخدام تقنيتهم وإبلاغ الجمهور بالمحتوى حتى يتمكن الناس من معرفة ما هي مقاطع الفيديو المزيفة.