
أكد أمانديب جيل وكيل الأمين العام للأمم المتحدة، والمبعوث الخاص المعني بالتكنولوجيا، أن التطوير والاستخدام غير المنضبط للذكاء الاصطناعي قد يؤدي إلى ظهور أسلحة ذات درجة غير مقبولة من الاستقلالية.
وقال جيل، إن الذكاء الاصطناعي هو تقنية قوية يمكنها أن تسرع تطوير أنظمة الأسلحة الحالية، قد نرى في المستقبل أنظمة تتميز بدرجة استقلالية أعلى من الأنظمة الآلية الحالية.
ووفقاً للمسؤول الأممي، ينبغي للحكومات أن تحافظ على ميزة السيطرة البشرية على الأسلحة، وضمان مسؤولية ومساءلة العسكريين الذين يتخذون قرار "اختيار الأهداف".
وهنا يبرز السؤال، كيف يمكن العمل على ألا تصبح هذه التقنية عاملاً آخر مزعزعاً للاستقرار؟ وما مخاطر الاستخدام غير المنضبط للتكنولوجيا العسكرية؟ وكيف يمكن تجنب مخاطرها، وما هي قوتها التدميرية والعسكرية؟
تحدي مركب
من جانبه، يقول الدكتور محمد محسن رمضان، رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات لـ" العربية.نت/الحدث.نت: إن تحذير الأمم المتحدة ليس مجرد تصريح سياسي، بل إنذار مبكر بمرحلة جديدة من سباق تسلّح يعتمد على خوارزميات قادرة على اتخاذ قرار فتاك بصورة مستقلة، والتحوّل نحو أسلحة ذاتية القرار يمثل تحدياً مركباً يجمع بين الأمن السيبراني، والتكنولوجيا العسكرية، والقانون الدولي الإنساني، واستقرار النظام الدولي.
وتابع: أولاً التهديد الحقيقي يكمن في طبيعة الذكاء الاصطناعي نفسه، فالذكاء الاصطناعي المستخدم في أنظمة التسليح الحديثة لا يعتمد فقط على البرمجة المباشرة، بل على شبكات عصبية تتعلم ذاتياً وخوارزميات تتخذ قرارات في بيئة غير مستقرة وأنظمة استشعار تعتمد على بيانات قد تكون قابلة للتضليل.
أداة هجومية لصالح الخصم
وأضاف أنه مع الانتقال من نماذج "الدعم البشري" إلى نماذج "الاستقلالية المتزايدة"، يظهر خطر وجود سلاح قادر على اتخاذ قرار هجومي دون رقابة بشرية دقيقة، وهو ما قد يؤدي إلى نتائج عسكرية لا تتوافق مع النية السياسية أو قواعد الاشتباك، ثانياً المخاطر التقنية والأمنية المحتملة في الأسلحة ذاتية القرار، وقابلية الاختراق (Cyber Intrusions)، حيث إن المنظومات القتالية الذكية تعتمد كلياً على البنية الرقمية من خوارزميات التحكم ونظم الملاحة وقواعد البيانات وشبكات الاتصال.
وقال إن أي اختراق أو تلاعب بهذه المكونات قد يؤدي إلى تغيير مسار السلاح وإعادة توجيهه لقتل أهداف مدنية وتعطيل منظومة الأمان الذاتية، وتنفيذ عمليات هجومية غير مصرح بها، وبالتالي يتحول السلاح من أداة دفاعية إلى منصة هجومية لصالح الخصم.
فقدان السيطرة البشرية
وأوضح رمضان، أنه بالنسبة للهجمات التضليلية (Adversarial Manipulation) يمكن للخصوم خداع أنظمة الذكاء الاصطناعي عبر صور معدّلة بخوارزميات دقيقة وإشارات إلكترونية مُضلّلة وبيانات كاذبة تدخل للنظام أثناء التشغيل، وقد ثبت علمياً أن الخوارزميات يمكن أن تتخذ قرارات خاطئة بنسبة كبيرة أمام تغييرات طفيفة غير مرئية للعين البشرية، موضحاً أنه هناك ما يسمى بـ"فقدان السيطرة البشرية" (Loss of Human Oversight).
وكشف رمضان أن السلاح ذاتي القرار يختصر دورة في اتخاذ القرار من: "رصد وتحليل وتقدير الموقف والقرار والإطلاق" إلى مجرد قرار آلي لحظي، هذا التحوّل قد يؤدي إلى تصعيد غير مقصود وضرب أهداف غير مصرح بها وفقدان القدرة على التدخل أثناء حدوث خلل تشغيلي وقرارات هجومية مخالفة للقانون الدولي الإنساني.
وأضاف: هناك محور هام وهو فجوة المساءلة القانونية (Accountability Gap) فعندما يُخطئ السلاح الذكي في التمييز بين مقاتل ومدني، يظل السؤال قائماً: من المسؤول، القائد العسكري أم الشركة المطورة أم المُبرمج؟ أم النظام ذاته؟ وهذه الفجوة تمثل تهديداً مباشراً لمنظومة العدالة الدولية.
حظر الأسلحة المستقلة
ويوصي الدكتور محسن رمضان: بضرورة الإبقاء على شرط "السيطرة البشرية الكاملة" (Human-in-the-loop) فلا بد من أن يبقى الإنسان هو الجهة صاحبة القرار النهائي في استخدام القوة المميتة، من خلال مراجعة الإحداثيات والتحقق من طبيعة الهدف وتفعيل الإطلاق يدوياً وإمكانية الإيقاف قبل التنفيذ، كما يجب وضع إطار دولي ملزم لتنظيم الأسلحة ذاتية القرار، فيما يؤكد دعمه للتوجه الأممي لحظر الأسلحة التي تتخذ قراراً مستقلاً بالتدمير بحلول 2026، مع ضرورة اعتماد معايير موحدة لدرجات الاستقلالية وإنشاء آليات تفتيش دولية وتسجيل الأنظمة الذكية العسكرية في قاعدة بيانات أممية.
من جانبه يقول اللواء عادل العمدة، المحاضر بالأكاديمية العسكرية للدراسات العليا والاستراتيجية في تصريحات خاصة لـ"العربية.نت"/"الحدث.نت": إن هذه الأسلحة من النتائج السلبية للتطور التكنولوجي، لأن القرار يتطلب تقدير موقف وهنا لا توجد الظروف والأدوات والآليات التي تجيز اتخاذ هذا القرار، فآلية تقدير الموقف مفقودة في الأسلحة ذات التقنية العالية من الذكاء الاصطناعي.
وأشار إلى أنه يتفق مع المطالبات للأمم المتحدة باتخاذ قرار بتحريم هذا الأمر وعدم إجازته، فيجب أن يكون هناك عدم استقلالية وتقييد كامل لهذه الأسلحة، لأن الحرية الكاملة ستؤدي إلى خسائر كبيرة قد يترتب عليها فناء العالم، فالأسلحة الذكية تمثل خطورة على المجتمعات البشرية والشعوب وعلى الاستقرار في العالم كله.