LEAP26

مشكلات الذكاء الاصطناعي في الحروب تتجاوز صراعات الشركات مع وزارات الدفاع

عبد الرحمن عمرو
عبد الرحمن عمرو

4 د

تنتشر الخوارزميات والذكاء الاصطناعي في غرف العمليات الحديثة لتعزيز سرعة اتخاذ القرارات العسكرية.

الصراع بين Anthropic ووزارة الدفاع يسلط الضوء على تحديات قانونية وأخلاقية في استخدام الذكاء الاصطناعي.

القرارات العسكرية المتسارعة قد تضغط على مبادئ القانون الدولي الإنساني وتطرح قضايا المسؤولية.

الذكاء الاصطناعي يتجاوز الأسلحة الذاتية، حيث يؤثر جوهريًا على طبيعة القرارات القتالية.

النقاش يتعمق إلى مستوى عسكرة الذكاء الاصطناعي وتحدياته الأخلاقية والعملية.

في غرف العمليات الحديثة لا يُسمع صوت الرصاص فقط، بل طنين الخوادم أيضاً. شاشات مليئة بالبيانات، خوارزميات تُحلّل صور الأقمار الصناعية، ونماذج ذكاء اصطناعي تقترح أهدافاً خلال ثوانٍ. هذا المشهد لم يعد افتراضياً، بل يقف اليوم في قلب نزاع قانوني وسياسي بين شركة Anthropic ووزارة الدفاع الأميركية، نزاع يكشف أن السؤال لم يعد “هل نستخدم الذكاء الاصطناعي في الحرب؟” بل “كيف، وبأي ثمن قانوني وأخلاقي؟”.


دعوى تكشف ما وراء الكواليس

الخلاف بدأ عندما صنّفت وزارة الدفاع شركة Anthropic باعتبارها “خطراً على سلسلة التوريد”، بعد رفضها السماح باستخدام نموذجها اللغوي في المراقبة واسعة النطاق وأنظمة الأسلحة ذاتية التشغيل. ردّت الشركة بدعوى قضائية تتهم الوزارة بالانتقام وانتهاك الإجراءات القانونية.

من زاوية تقنية، تكشف المرافعات نقطة حساسة: هل يحتفظ مطوّرو نماذج الذكاء الاصطناعي بقدرة على تعديل الأنظمة بعد نشرها عسكرياً؟ الوزارة تقول إن “الضبط المستمر” يمنح الشركات وصولاً مميزاً، بينما تنفي Anthropic قدرتها على التدخل بعد النشر. هذه المساحة الرمادية التقنية تعني أن مسؤولية القرار القاتل قد لا تكون محصورة في ساحة المعركة فقط.


الذكاء الاصطناعي وتسريع سلسلة القتل

التحول الحقيقي لا يتعلق بالاستقلالية الكاملة للسلاح، بل بتسريع ما يُعرف بـ “سلسلة القتل”؛ أي دورة تحديد الهدف وتعقبه ثم ضربه. الخوارزميات اليوم تحلل كمّاً هائلاً من بيانات المراقبة والاستخبارات في وقت شبه لحظي، وتقترح أهدافاً خلال ثوانٍ.

المعضلة أن ضغط السرعة يُحوّل الدور البشري إلى مصادقة سريعة بدلاً من تقييم فعلي. تقارير إعلامية تحدثت عن عمليات تتم “أسرع من سرعة التفكير”، حيث يراجع الضباط توصيات النموذج في ثوانٍ قليلة. وهنا تظهر مفارقة قاسية: وجود إنسان في الحلقة لا يعني بالضرورة وجود حكم إنساني فعلي.


من غزة إلى إيران: سوابق مقلقة

التجارب السابقة في نزاعات حديثة أظهرت كيف يمكن للأنظمة المعتمدة على التعلم الآلي أن تُمكّن عمليات قصف بوتيرة غير معهودة. في إحدى الحالات، جرى اعتماد هدفين في الدقيقة خلال ذروة العمليات الجوية، بينما اقتصر التحقق البشري أحياناً على مؤشرات سطحية.

في السياق الحالي، تشير تقديرات إلى سقوط أكثر من ألف مدني في ضربات جرى تسريعها عبر أدوات ذكاء اصطناعي. بغض النظر عن دقة الأرقام، الفكرة الجوهرية واضحة: تسريع القرار العسكري قد يضغط على مبادئ التمييز والتناسب والضرورة، وهي ركائز القانون الدولي الإنساني.


القانون الدولي في مواجهة الخوارزمية

الولايات المتحدة طرف في اتفاقيات جنيف، كما يجرّم قانون جرائم الحرب بعض الانتهاكات الخطيرة. هذا الإطار القانوني لا يختفي لمجرد دخول نموذج لغوي أو نظام تحليل بيانات إلى ساحة القتال. استخدام الذكاء الاصطناعي لا يخلق فراغاً تشريعياً، بل يضع الأنظمة القائمة تحت اختبار غير مسبوق.


الجريمة التي تُرتكب عبر خوارزمية تظل جريمة، حتى لو مرّت عبر واجهة برمجة تطبيقات.

الإشكالية الحقيقية تتعلق بإسناد المسؤولية: هل تقع على الجندي الذي ضغط زر الموافقة؟ أم على القائد الذي فرض معيار السرعة؟ أم على الشركة التي وفرت البنية الخوارزمية؟ في بيئة تعتمد على النماذج التوليدية والتحليلات التنبؤية، يصبح الخط الفاصل بين الدعم التقني والمشاركة الفعلية أكثر تعقيداً.


ليست مسألة أسلحة ذاتية فقط

يركّز كثير من الجدل على الأسلحة ذاتية التشغيل، لكن المقال الأصلي يلفت الانتباه إلى نقطة أعمق: حتى من دون استقلالية كاملة، يمكن للذكاء الاصطناعي أن يغيّر طبيعة القرار القتالي جذرياً. وجود “حارس أخلاقي” بسيط أو قيود برمجية محدودة لا يكفي إذا كان الإطار التشغيلي نفسه يدفع نحو السرعة على حساب التدقيق.

  • النماذج اللغوية قد تُستخدم لتحليل صور وتقارير استخباراتية.
  • أنظمة التوصية العسكرية قد تدمج بيانات متعددة في قرار واحد.
  • التحيز الخوارزمي أو الخطأ الاحتمالي قد يتحول إلى خسائر بشرية فعلية.
ذو صلة

هذا يعني أن النقاش ينبغي أن يتجاوز حدود شركة واحدة أو إدارة سياسية بعينها، ليمس البنية الكاملة لعسكرة الذكاء الاصطناعي، من مراكز البيانات إلى غرف القيادة.

النزاع القضائي بين Anthropic ووزارة الدفاع قد يحسم مسألة إجرائية أو دستورية، لكنه لا يمس جوهر التحول الجاري. التكنولوجيا هنا لا تعمل في فراغ، بل ضمن منظومة تحفّز السرعة وتكافئ الحسم الفوري. وبينما تتطور الخوارزميات بوتيرة متسارعة، يبقى السؤال الأبطأ والأثقل: كيف نحافظ على إنسانية القرار في زمن تتخذ فيه الآلة القسم الأكبر من الطريق إليه؟

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة