سان فرانسيسكو: أكدت غوغل أنها لن تستخدم الذكاء الاصطناعي من أجل تطوير الأسلحة أو "التسبب أو تسهيل التسبب بصورة مباشرة بإيذاء الناس" مع نشر جملة من المبادئ المتصلة بهذه التكنولوجيا.

وقال رئيس غوغل التنفيذي سوندار بيتشاي في مدونة فصَّل فيها الخميس سياسة الشركة في مجال الذكاء الاصطناعي إنه حتى وإن كانت غوغل لن تستخدم الذكاء الاصطناعي لصنع أسلحة، "فإننا سنواصل العمل مع الحكومات والجيش في مجالات عديدة أخرى"، بما فيها الأمن المعلوماتي والتدريب والبحث والانقاذ.

واجهت غوغل ضغوطا من موظفيها ومن جهات خارجية بشأن عقد مع الجيش الأميركي قالت الشركة ومقرها كاليفورنيا أنه لن يُجدد. وحدد بيتشاو سبعة مبادئ تسترشد بها غوغل في تطبيق الذكاء الاصطناعي أو الحوسبة المتقدمة التي تحاكي السلوك البشري الذكي.

وقال إن غوغل تستخدم الذكاء الاصطناعي من أجل "مساعدة الناس على حل مشكلات عاجلة" مثل التنبؤ بحدوث حرائق ومساعدة المزارعين وتشخيص الأمراض أو تفادي الإصابة بالعمى.

تطبيقات مفيدة اجتماعيًا

وأضاف في مدونته "نحن نقر بأن هذه التكنولوجيا القوية تطرح أسئلة قوية بالمثل بشأن استخداماتها. إن طريقة تطوير الذكاء الاصطناعي واستخدامه سيكون لها تأثير كبير على المجتمع لعدة سنوات قادمة. وكقادة في مجال الذكاء الاصطناعي، نشعر بأن لدينا مسؤولية كبيرة في أن نفعل الأمر بصورة صحيحة".

وقال بيتشاو إن برامج الذكاء الاصطناعي لدى غوغل ستصمم من أجل تطبيقات "مفيدة اجتماعيا" و"تفادي إحداث أو تعزيز التحيز غير المنصف".

وقال إن المبادئ تركز على أن يتم "تصميم واختبار" تطبيقات الذكاء الاصطناعي بحيث تضمن "السلامة" و"تتحمل المسؤولية إزاء الناس" و"تتضمن مبادئ حماية الخصوصية".

وكتب أن غوغل ستتفادى استخدام أي تكنولوجيا "تتسبب أو يمكن أن تسبب بضرر عام".

وهذا يعني عدم تطوير "أسلحة أو تكنولوجيات أخرى الغاية الرئيسية منها أو من تطبيقها التسبب أو تسهيل التسبب بصورة مباشرة بإيذاء الناس" وأنظمة "تجمع أو تستخدم المعلومات من أجل المراقبة وتنتهك الأعراف المتفق عليها دولياً".

معايير أدق 

وعبر خبراء عن مخاوفهم من إساءة استخدام الأنظمة الروبوتية أو الآلية أو خروجها عن السيطرة والتسبب بفوضى.

ووافقت عدة شركات تعنى بالتكنولوجيا على المبادئ العامة لاستخدام الذكاء الاصطناعي من أجل الصالح العالم لكن يبدو أن غوغل تعتمد معايير أدق.

وغوغل عضو في شراكة الذكاء الاصطناعي التي تضم عشرات الشركات الملتزمة مبادئ الذكاء الاصطناعي التي واجهت انتقادات لتوقيعها عقداً مع وزارة الدفاع الأميركية بشأن "مشروع مافن" الذي يستخدم التعلم الآلي وتكوين المواهب للتمييز بين الناس والأشياء في أشرطة فيديو تلتقطها الطائرات المُسيَّرة.