تعتقد Google الآن أنه من المقبول استخدام الذكاء الاصطناعي للأسلحة والمراقبة
قامت Google بأحد التغييرات الأكثر جوهرية على مبادئ الذكاء الاصطناعي منذ نشرها لأول مرة في عام 2018. في تغيير تم رصده بواسطة واشنطن بوستقام عملاق البحث بتحرير المستند لإزالة التعهدات التي جعلتها واعدة بأنها لن “تصميم أو نشر” أدوات الذكاء الاصطناعي للاستخدام في الأسلحة أو تكنولوجيا المراقبة. في السابق ، تضمنت هذه الإرشادات قسمًا بعنوان “التطبيقات التي لن نتابعها” ، وهو غير موجود في الإصدار الحالي من المستند. نشرت الشركة منشور مدونة لاحظ التحديث ، دون ذكر على وجه التحديد التغييرات التي تم إجراؤها.
بدلاً من ذلك ، يوجد الآن قسم بعنوان “التنمية والنشر المسؤولة”. هناك ، تقول Google إنها ستنفذ “الإشراف البشري المناسب ، والخداع الواجب ، وآليات التغذية المرتدة للتوافق مع أهداف المستخدم ، والمسؤولية الاجتماعية ، ومبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع.”
هذا التزام أوسع بكثير من تلك المحددة التي صنعتها الشركة مؤخرًا في نهاية الشهر الماضي عندما كانت النسخة السابقة من مبادئ الذكاء الاصطناعى لها لا تزال حية على موقعها على الإنترنت. على سبيل المثال ، من حيث صلتها بالأسلحة ، قالت الشركة سابقًا إنها لن تصمم الذكاء الاصطناعي لاستخدامها في “الأسلحة أو التقنيات الأخرى التي غرضها أو تنفيذها الرئيسي هو التسبب في أو تسهيل إصابة الناس بشكل مباشر.” أما بالنسبة لأدوات مراقبة الذكاء الاصطناعي ، قالت الشركة إنها لن تطور التقنية التي تنتهك “المعايير المقبولة دوليًا”.
عندما طلب التعليق ، أشار متحدث باسم Google Engadget إلى منشور المدونة التي نشرتها الشركة يوم الثلاثاء. في تكنولوجيا المعلومات ، يقول الرئيس التنفيذي لشركة DeepMind Demis Hassabis و James Manyika ، نائب الرئيس الأول للبحوث والمختبرات والتكنولوجيا والمجتمع في Google ، إلى ظهور الذكاء الاصطناعي باعتباره “تقنية للأغراض العامة” استلزم تغيير السياسة.
“نعتقد أن الديمقراطيات يجب أن تقود في تنمية الذكاء الاصطناعي ، مسترشدة بالقيم الأساسية مثل الحرية والمساواة واحترام حقوق الإنسان. ونعتقد أن الشركات والحكومات والمنظمات التي تشارك هذه القيم يجب أن تعمل معًا لإنشاء الذكاء الاصطناعي الذي يحمي الناس ، ويعزز العالمي النمو ، ويدعم الأمن القومي “، كتب الاثنان. “… تسترشد بمبادئ الذكاء الاصطناعي لدينا ، سنستمر في التركيز على أبحاث الذكاء الاصطناعي والتطبيقات التي تتوافق مع مهمتنا ، وتركيزنا العلمي ، ومجالات خبرتنا ، والبقاء متسقة مع مبادئ القانون الدولي وحقوق الإنسان – عمل محدد من خلال تقييم ما إذا كانت الفوائد تفوق المخاطر المحتملة بشكل كبير “.
عندما نشرت Google مبادئ AI لأول مرة في عام 2018 ، فعلت ذلك في أعقاب Project Maven. لقد كان عقدًا حكوميًا مثيرًا للجدل ، لو قررت Google تجديده ، فإن الشركة كانت ستوفر برنامج AI إلى وزارة الدفاع لتحليل لقطات الطائرات بدون طيار. ترك العشرات من موظفي Google الشركة احتجاجًا على العقد ، حيث قام الآلاف بتوقيع عريضة في المعارضة. عندما نشرت Google في نهاية المطاف إرشاداتها الجديدة ، قيل إن الرئيس التنفيذي لشركة Sundar Pichai أخبر الموظفين أن أمله هو أن يقفوا “اختبار الزمن”.
ومع ذلك ، بحلول عام 2021 ، بدأت Google في متابعة العقود العسكرية مرة أخرى ، مع ما يقال إن عرضًا “عدوانيًا” لعقد سحابة Cloud Cloud Cloud المشترك في البنتاغون. في بداية هذا العام ، واشنطن بوست ذكرت أن موظفي Google عملوا مرارًا وتكرارًا مع وزارة الدفاع الإسرائيلية لتوسيع استخدام الحكومة لأدوات الذكاء الاصطناعى.
تحديث ، 5 فبراير ، 12:25 مساءً بالتوقيت الشرقي: تم تحديث هذه القصة بعد النشر لتضمين رابط لنشر مدونة Google على تغييرات مبادئ الذكاء الاصطناعي في الفقرة الأولى.