البيان/متابعات:في تحول نوعي غير مسبوق في طبيعة الحروب المعاصرة، تكشف تجربة الحرب على غزة عن انتقال مركز القرار العسكري من الإنسان إلى الخوارزمية، ومن ساحة الميدان إلى فضاء البيانات، بما يطرح أسئلة جوهرية حول المسؤولية والمساءلة في النزاعات الحديثة.
ويرى الدكتور خالد وليد محمود، الخبير والباحث المتخصص في السياسة السيبرانية والذكاء الاصطناعي، أن ما يجري في غزة لا يمكن التعامل معه كحدث عسكري محلي أو حالة استثنائية، بل باعتباره نموذجاً عملياً يُعاد من خلاله تعريف مفهوم الحرب ذاته. وأوضح في تصريحات صحفية أن «ما يجري لا يتمثل في اختبار سلاح بعينه، بل في اختبار عقيدة قتالية كاملة تقوم على دمج الذكاء الاصطناعي شبه المستقل في صلب دورة القرار العسكري».
وبحسب محمود، فإن خطورة هذه التجربة تكمن في تحوّل الذكاء الاصطناعي من أداة دعم استخباري وتقني إلى عنصر بنيوي يعيد تشكيل منطق القوة والنفوذ. وأشار إلى أن الانتقال من التحقق البشري إلى الترشيح الخوارزمي، ومن الاستهداف المحدود إلى الإنتاج الواسع للأهداف، ومن المراقبة المؤقتة إلى الضبط الدائم، يعكس انتقال الحرب من ساحة الصدام المباشر إلى ساحة البيانات. وأضاف أن اختزال حياة الإنسان في معادلات إحصائية يحوّل القرار القتالي إلى ناتج حسابي، ما يؤدي إلى تقويض عميق لفكرة المسؤولية الأخلاقية.
وأكد محمود أن ما يجعل حالة غزة سابقة عالمية لا يقتصر على كثافة استخدام أنظمة الذكاء الاصطناعي، بل يشمل أيضاً تطبيع هذا الاستخدام في بيئة حضرية مكتظة بالسكان، في ظل غياب أطر قانونية دولية ملزمة. وحذّر من قابلية هذا النموذج للانتقال إلى نزاعات أخرى، خاصة لدى الدول التي تسعى إلى تقليل الكلفة السياسية والبشرية على قواتها.
وفي الجانب التقني، نبّه محمود إلى مخاطر سيبرانية عميقة ناتجة عن ربط أنظمة الاستهداف القتالي المباشر ببرمجيات وتحديثات مصدرها شركات خاصة أو أطراف خارج السيطرة الوطنية الكاملة. وأوضح أن هذا الواقع يؤدي إلى تفتيت خطير في سلسلة الإمداد البرمجي، ويجعل قرارات إطلاق النار مرتبطة بشبكات تحديث ومكونات خارج نطاق السيادة الكاملة.
كما حذّر من أن هذا المسار يفتح الباب أمام اختراقات سيبرانية قد تغيّر سلوك الأنظمة دون علم المشغّلين، سواء عبر إدخال أكواد ملوّثة أو تعديلات غير متوقعة في تعريف الأهداف أو تقييم الأضرار المدنية، ما يفاقم إشكالية تحديد المسؤولية القانونية عند وقوع أخطاء جسيمة.
ويخلص الدكتور خالد وليد محمود إلى أن الخطر الحقيقي لا يكمن في التكنولوجيا بحد ذاتها، بل في العقيدة التي تُبنى حولها، وفي غياب نقاش دولي جاد يضع معايير ملزمة لاستخدام الذكاء الاصطناعي في المجال العسكري. وحذّر من أن ترك هذا المسار دون ضوابط سيقود إلى حروب تُدار بسرعة الخوارزميات، من دون حارس أخلاقي فعلي، فيما تبقى الكلفة الإنسانية خارج أي معادلة حسابية.