LEAP26

الجيش الأمريكي مستمر مع كلود… لكن شركات تكنولوجيا الدفاع تنسحب

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

تستخدم وزارة الدفاع الأمريكية نماذج Claude من Anthropic في العمليات العسكرية رغم التوجيهات السياسية.

يتكامل نموذج Claude مع نظام Maven من Palantir لتحديد الأهداف وترتيب الأولويات.

تدرس شركات الدفاع الأمريكية استبدال نماذج Claude بسبب مخاطر سلسلة التوريد والقضايا القانونية.

تحقق Anthropic نمواً في السوق المدني رغم الضغط السياسي في مجال الدفاع.

يثير دور الذكاء الاصطناعي في العمليات العسكرية تساؤلات حول الاستدامة التقنية والسيادة.

في لحظات الحرب، تختفي التفاصيل التقنية خلف أزيز الطائرات ونشرات الأخبار العاجلة. لكن بعيداً عن العناوين الصاخبة، تعمل أنظمة ذكاء اصطناعي بهدوء داخل غرف العمليات، تتخذ قرارات وتُرتّب أهدافاً، وتعيد تعريف دور البرمجيات في ساحات الصراع. هذا تحديداً ما تكشفه التطورات الأخيرة حول استمرار استخدام نماذج Claude من شركة Anthropic داخل وزارة الدفاع الأمريكية، رغم أزمة سياسية دفعت عدداً متزايداً من شركات التقنية الدفاعية إلى الابتعاد عنها.


بين قرار سياسي وواقع ميداني

الرئيس الأمريكي وجّه بوقف استخدام منتجات Anthropic داخل الوكالات المدنية، مع منح وزارة الدفاع مهلة ستة أشهر لتصفية العلاقة. لكن توقيت القرار تزامن مع تصعيد عسكري مباشر، ما جعل التنفيذ الكامل للتوجيه أمراً معقداً. النتيجة أن أنظمة الشركة لا تزال فعلياً جزءاً من البنية التقنية التي تدعم العمليات.

بحسب تقرير لصحيفة واشنطن بوست، استُخدمت نماذج Anthropic بالتكامل مع نظام Maven التابع لشركة Palantir لتحديد مئات الأهداف، وتقديم إحداثيات دقيقة، وترتيبها وفق الأولوية. هذا ليس دوراً تحليلياً ثانوياً، بل مساهمة في ما وُصف بالاستهداف الفوري وترتيب الأهداف لحظياً.


ذكاء اصطناعي في قلب القرار العسكري

استخدام نموذج لغوي كبير في سياق عسكري يتجاوز فكرة “مساعد ذكي”. نحن أمام خوارزميات معالجة بيانات ضخمة، تجمع صوراً وإشارات ومعلومات استخباراتية، ثم تنتج توصيات قابلة للتنفيذ. حتى لو بقي القرار النهائي بيد البشر، فإن طبقة الذكاء الاصطناعي أصبحت تؤثر في سرعة ودقة القرار التكتيكي.

  • تحليل بيانات آنية من مصادر متعددة.
  • اقتراح أولويات بناءً على أنماط وسوابق.
  • تقليل الزمن بين جمع المعلومة واتخاذ القرار.

هذه النقاط تعكس تحولاً أعمق: لم يعد الذكاء الاصطناعي أداة مكتبية، بل جزءاً من منظومة القيادة والسيطرة.


شركات الدفاع تبحث عن بدائل

على الجانب الآخر، المشهد في القطاع الصناعي مختلف. تقارير من رويترز وCNBC تشير إلى أن شركات دفاع كبرى مثل لوكهيد مارتن بدأت بالفعل استبدال نماذج Claude بأنظمة منافسة. بعض الصناديق الاستثمارية في قطاع الدفاع أكدت أن شركات ضمن محافظها أوقفت استخدام Claude وتعمل على الانتقال إلى مزودين آخرين.

السبب ليس تقنياً بحتاً، بل يرتبط بمخاطر سلسلة التوريد والقلق من تصنيف حكومي محتمل قد يضع الشركة ضمن قائمة المخاطر. في قطاع يقوم على العقود طويلة الأجل والامتثال الصارم، يكفي احتمال عدم الاستقرار القانوني لدفع الشركات إلى إعادة الحسابات.


مفارقة السمعة مقابل الاستخدام

المفارقة أن Anthropic تواجه في الوقت نفسه ضغطاً سياسياً في واشنطن وطفرة شعبية في سوق المستهلكين. تطبيق Claude شهد نمواً ملحوظاً في التنزيلات بعد إعلان الشركة رفضها استخدام تقنياتها في المراقبة الداخلية أو الأسلحة الذاتية. هذا التباين يعكس انقساماً في النظرة إلى دور الذكاء الاصطناعي: بين الاستخدام العسكري والاستخدام المدني.

في الخلفية، تواصل الشركة توسيع منتجاتها، مثل إطلاق وضع الأوامر الصوتية في Claude Code، وتحقيق نمو قوي في الإيرادات. أي أن الأزمة السياسية لم تُبطئ توسعها التجاري حتى الآن، لكنها تعيد صياغة علاقتها بأكثر القطاعات حساسية: الدفاع.


سؤال الاستدامة التقنية

ذو صلة

السؤال الأهم لا يتعلق فقط بإمكانية صدور قرار رسمي باعتبار Anthropic خطراً على سلسلة التوريد، بل بمدى قدرة شركات الذكاء الاصطناعي على العمل في بيئات سياسية متقلبة. عندما تصبح النماذج اللغوية جزءاً من البنية التحتية للأمن القومي، فإنها تدخل دائرة تتجاوز السوق والمنافسة إلى حسابات السيادة والمخاطر الاستراتيجية.

ما تكشفه هذه القصة هو أن الذكاء الاصطناعي لم يعد تقنية محايدة تنتظر الاستخدام، بل أصبح طرفاً في توازنات حساسة بين السياسة والدفاع والاقتصاد. وبينما تُستبدل النماذج في بعض المكاتب، تستمر في العمل داخل غرف عمليات أخرى، في تذكير واضح بأن التكنولوجيا لا تتوقف عند حدود الجدل، بل تتقدم غالباً أسرع من القرارات المنظمة لها.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة