واصبح الحديث عن الخوف من التطويرات التي يمكن أن تحدث في مشروعات الذكاء الاصطناعي، ومدى الضرر الذي يمكن أن تسبب فيه للبشرية إذا ما تفوقت على ذكاء العقل البشري.
وأعلنت شركة جوجل منح موظفها الذي يدعى بليك ليموين"4، الذي كان يعمل في منظمة Responsible AI التابعة لـ "جوجل" في إجازة إدارية .
بداية الأزمة كانت على روبوت قامت بتطويره "جوجل" وأطلقت عليه اسم "LaMDA"، وهو روبوت خاص بالدردشة والتحدث على الذكاء الاصطناعي.
وفي العام الماضي أعلنت جوجل بأن "LaMDA" هو نموذج اللغة لتطبيقات الحوار كان تقنية محادثة متطورة، يمكن أن تتعلم التحدث عن أي شيء.
وكجزء من عمل "ليموين" بدأ في التحدث مع الروبوت في خريف 2021، حيث تم تكليفه باختبار ما إذا كان الذكاء الاصطناعي يستخدم خطابًا تمييزيًا أو يحض على الكراهية.
وقد صرح "بلايك ليموين" أن روبوت الدردشة على الذكاء الاصطناعي المعروف باسم يدعي "LaMDA"، لديه وعيا ويعبر عن أفكاره وعواطفه البشرية، وهو ما دحضته جوجل باعتباره "لا أساس له من الصحة تمامًا".وفقًا لموقع نيويورك بوست.
وقام "بلايك ليموين" الذي درس الإدراك وعلوم الكمبيوتر، بمشاركة جوجل مع المديرين التنفيذيين للشركة في أبريل بعنوان "هل LaMDA حساس؟" لكن تم استبعاد مخاوفه.
وكانت تصريحات مهندس جوجل مع واشنطن بوست، بأن الروبوت لديه عقل واع بناءً على أنه كلما سأل عن "LaMDA" حول كيفية معرفته أن لديه مشاعر و وعي، كتب أن chatbot سيوفر بعض الاختلاف في "لأنني شخص وهذا ما أشعر به".
و سرعان ما استبعدت "جوجل" موظفها رسميًا لانتهاكه سياسات الشركة، بعد أن شارك محادثاته مع الروبوت، الذي وصفه بأنه "طفل لطيف".
- - بيان جوجل
حاولت "جوجل احتواء الأزمة من خلال نشرها بيانا رسميا، أوضحت فيه أن مزاعم "ليموين" بشأن نموذج اللغة لتطبيقات الحوار المعروف باسم "LaMDA"، لا أساس لها على الإطلاق، وإن الشركة عملت معه لعدة أشهر.
وأوضحت "جوجل" أنه لا يزال بلايك ليموين يختار باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة، التي تتضمن الحاجة إلى حماية معلومات المنتج، أما عن الروبوت "LaMDA" فإنها تقنية متطورة وأداة الشركة لبناء روبوتات المحادثة
وقالت جوجل في بيانها إنها تأخذ التطوير المسؤول للذكاء الاصطناعي "على محمل الجد"، ونشرت تقريراً يُفصل ذلك، وأضافت أن أي مخاوف للموظفين بشأن تكنولوجيا الشركة تتم مراجعتها على نطاق واسع، وأن "LaMDA" خضعت لـ11 مراجعة.