الولايات المتحدة تضع قواعد جديدة للتعامل مع "الروبوتات القاتلة"  

الروبوتات القاتلة
الروبوتات القاتلة

 

وضعت وزارة الدفاع الأمريكية (DoD) قواعد جديدة حول كيفية التعامل مع الأنظمة المستقلة المعروفة باسم "الروبوتات القاتلة".

جاء التوجيه وسط دعوات من المنظمات لحظر استخدام الأسلحة والمعدات التي يتحكم فيها الذكاء الاصطناعي (AI) بسبب مخاوف تتعلق بالسلامة.

وفقًا لنائبة وزيرة الخارجية كاثلين هيكس ، فإن البنتاجون ملتزم باستخدام الأسلحة المستقلة بطريقة مسؤولة وقانونية.

بموجب التوجيه الجديد "الاستقلالية في أنظمة الأسلحة" ، سيُطلب من الجيش الأمريكي تقليل "احتمالية وعواقب الفشل" في أنظمة الأسلحة المستقلة وشبه المستقلة لتجنب الاشتباكات غير المقصودة.

سيستمر السماح للأنظمة التي تتضمن قدرات الذكاء الاصطناعي ، بشرط أن تلتزم بالمبادئ الأخلاقية للذكاء الاصطناعي التي وضعتها وزارة الدفاع واستراتيجية الذكاء الاصطناعي المسؤولة ومسار التنفيذ.

قال هيكس: "نظرًا للتطورات الهائلة في التكنولوجيا التي تحدث في كل مكان حولنا ، سيساعد تحديث التوجيه الخاص بالاستقلالية في أنظمة الأسلحة على ضمان بقائنا الرائد العالمي ليس فقط في تطوير ونشر أنظمة جديدة ، ولكن أيضًا في السلامة".

متطلبات جديدة

يتضمن التوجيه متطلبات جديدة لتطوير ونشر الأنظمة المستقلة والقائمة على الذكاء الاصطناعي في الجيش.

يجب تصميم أحدث التقنيات للسماح للقادة والمشغلين بممارسة مستويات مناسبة من الحكم البشري على استخدام القوة.

يجب أن تُظهر الأنظمة أيضًا الأداء المناسب والقدرة والموثوقية والفعالية في ظل ظروف واقعية.

بالإضافة إلى ذلك ، يريد البنتاجون من جميع الأفراد المصرح لهم استخدام "الروبوتات القاتلة" وفقًا لقوانين الحرب ، وقواعد سلامة أنظمة الأسلحة ، وقواعد الاشتباك المعمول بها.