دعوات دولية بوضع قواعد استخدام الذكاء الاصطناعي في الحروب | تقرير

صورة أرشيفية
صورة أرشيفية

مؤخرا دعت دول من بينها الولايات المتحدة والصين، إلى اتخاذ إجراءات عاجلة لتنظيم تطوير واستخدام الذكاء الاصطناعي في الحروب، محذرة من أن التكنولوجيا قد يكون لها عواقب غير وخيمة وغير مقصودة

وقد اتخذ اجتماع استمر لمدة يومين في لاهاي، وشارك فيه أكثر من 60 دولة الخطوات الأولى نحو وضع قواعد دولية بشأن استخدام الذكاء الاصطناعي في ساحة المعركة ، بهدف إبرام اتفاق مماثل لتلك المتعلقة بالأسلحة الكيماوية والنووية.

وقالت البلدان في دعوة مشتركة للعمل بعد الاجتماع: "يوفر الذكاء الاصطناعي فرصًا كبيرة وإمكانات غير عادية كتقنية تمكينية ، مما يمكننا من بين مزايا أخرى الاستفادة بقوة من كميات لم يكن بالإمكان تصورها من البيانات وتحسين عملية صنع القرار".

وحذرت الدول من أن هناك مخاوف في جميع أنحاء العالم حول استخدام الذكاء الاصطناعي في المجال العسكري وحول احتمال عدم موثوقية أنظمة الذكاء الاصطناعي، ومسألة المشاركة البشرية، وعدم الوضوح فيما يتعلق بالمسؤولية والعواقب المحتملة غير المقصودة.

هذا وقد وافق المندوبون البالغ عددهم 2000 مندوب من الحكومات وشركات التكنولوجيا والمجتمع المدني أيضًا على إطلاق لجنة عالمية لتوضيح استخداماتها للذكاء الاصطناعي في الحرب ووضع إرشادات معينة.

عسكريا ، يتم استخدام الذكاء الاصطناعي بالفعل للاستطلاع والمراقبة بالإضافة إلى التحليل ، ويمكن استخدامه في النهاية للاختيار الذاتي للأهداف - على سبيل المثال عن طريق "أسراب" الطائرات بدون طيار المرسلة إلى أراضي العدو.

وقال مسؤولون هولنديون إن الصين دعيت إلى المؤتمر كلاعب رئيسي في التكنولوجيا والذكاء الاصطناعي ، لكن روسيا لم تكن بسبب غزوها لأوكرانيا قبل عام تقريبًا.

وأضافوا: "لقد أثبتنا بوضوح الطبيعة الملحة لهذا الموضوع. وقال وزير الخارجية الهولندي Wopke Hoekstra في نهاية المؤتمر "نحن الآن بحاجة إلى اتخاذ مزيد من الخطوات".

وعلى الرغم من أن الخبراء يقولون إن معاهدة تنظم استخدام الذكاء الاصطناعي في الحرب قد لا تزال بعيدة المنال ، إلا أن الحضور اتفقوا على ضرورة وضع المبادئ التوجيهية بشكل عاجل.

وقال الجنرال يورغ فولمر، القائد السابق بحلف شمال الأطلسي، للمندوبين: "في النهاية ، دائمًا ما يكون الإنسان هو من يحتاج إلى اتخاذ القرار" في ساحة المعركة.

وأضاف فولمر: "أيا كان ما نتحدث عنه ، يمكن أن يكون الذكاء الاصطناعي مفيدًا ، ويمكن أن يكون داعمًا ، ولكن لا تترك الإنسان يخرج من المسؤولية التي يتحملها - ولا يسلمها أبدًا إلى الذكاء الاصطناعي".