مايكروسوفت تقف إلى جانب أنثروبيك في تداعيات الخلاف مع البنتاغون رغم المنافسة الشديدة
تصنيف Anthropic كـ"خطر سلسلة التوريد" أثار جدلًا بشأن الاعتماد العسكري على الذكاء الاصطناعي.
وزارة الدفاع أوقفت تعاقداتها مع Anthropic لتجنب المخاطر في البيئات العسكرية الحساسة.
تقدمت مايكروسوفت بدعم قانوني لـAnthropic لحماية استثماراتها والحد من تعطيل الأنظمة القائمة.
تعتمد الولايات المتحدة على الذكاء الاصطناعي في تحليل المعلومات واتخاذ القرارات العسكرية.
خلاف Anthropic يعكس التعقيد بين الاستخدامات المدنية والعسكرية للذكاء الاصطناعي.
في اللحظات التي تتصاعد فيها التوترات الجيوسياسية، تصبح التقنيات التي تعمل في الخلفية أكثر حضوراً من أي وقت مضى. منصّات الذكاء الاصطناعي التي اعتدنا الحديث عنها كأدوات إنتاجية أو نماذج لغوية متقدمة، تجد نفسها فجأة في قلب قرارات سيادية حساسة. هذا ما حدث مع Anthropic بعدما صنّفتها وزارة الدفاع الأميركية كمصدر “خطر في سلسلة التوريد”، قبل أن تتدخل مايكروسوفت علناً لدعمها قانونياً.
ما الذي فعله البنتاغون فعلياً؟
القرار لم يكن رمزياً. وزارة الدفاع أوقفت جميع تعاقداتها مع Anthropic وطلبت من المتعاقدين التخلص من نماذجها فوراً في الأعمال المرتبطة بها، رغم وجود فترة انتقالية تمتد لستة أشهر. التصنيف تحت بند “مخاطر سلسلة التوريد” يعني عملياً أن التقنية لم تعد موثوقة للاستخدام في بيئة عسكرية حساسة.
Anthropic ردّت بدعويين قضائيتين، معتبرة أن القرار غير مبرر، خاصة بعدما رفضت إزالة ضوابط أمان تتعلق بالاستخدامات المرتبطة بالمراقبة الشاملة أو الأسلحة ذاتية التشغيل بالكامل. هنا يتحول النقاش من مسألة تعاقدية إلى سؤال أعمق حول حدود الذكاء الاصطناعي في المجال العسكري.
لماذا تدعم مايكروسوفت منافساً؟
رغم المنافسة المحتدمة بين عمالقة النماذج اللغوية، تقدّمت مايكروسوفت بمذكرة دعم أمام المحكمة تطلب فيها تجميد القرار مؤقتاً. الشركة مستثمر رئيسي في Anthropic، لكنها أيضاً متعاقد تاريخي ضخم مع الحكومة الأميركية، ما يضعها في موقع معقّد.
من وجهة نظرها، فك الارتباط التقني السريع قد يربك البنية التشغيلية المعتمدة على نماذج الذكاء الاصطناعي داخل المؤسسات العسكرية. إعادة تهيئة المنتجات والعقود والبنى السحابية، مثل Azure، ليست عملية لحظية، خصوصاً عندما يتعلق الأمر بأنظمة تحليل بيانات أو دعم عمليات.
تعطيل مفاجئ لمنصة ذكاء اصطناعي في سياق عسكري لا يعني استبدال برنامج، بل إعادة ترتيب طبقات كاملة من التكامل التقني.
الذكاء الاصطناعي في قلب العمليات
بحسب تقارير إعلامية مثل بلومبرغ، تعتمد الولايات المتحدة بشكل متزايد على أدوات الذكاء الاصطناعي لتسريع تحليل المعلومات واتخاذ القرار في عملياتها العسكرية الأخيرة. الحديث هنا لا يدور فقط حول روبوتات دردشة، بل عن نماذج للتنبؤ، وتحليل صور، ودعم لوجستي، ومضاهاة أنماط.
هذا يفسر حساسية القرار. عندما تصبح الخوارزميات جزءاً من سلسلة القيادة الرقمية، فإن أي تغيير في مزود النموذج قد يؤثر في الكفاءة والجاهزية وحتى الثقة الداخلية بالنظام التقني.
مفارقة Anthropic الأخلاقية
Anthropic تحاول ترسيخ صورة أكثر التزاماً بمفهوم “المنفعة العامة”، وأعلنت عن إطلاق مركز تفكير داخلي لدراسة التأثيرات الاقتصادية والأمنية واسعة النطاق للذكاء الاصطناعي. لكنها في الوقت ذاته قدّمت خدماتها للحكومة الأميركية سابقاً، وتفيد تقارير بأنها لا تزال تُستخدم في بعض السياقات.
المفارقة هنا أن الشركة التي ترفض تخفيف ضوابط الأمان تتواجد تقنياً داخل البنية العسكرية بالفعل. هذا يعكس تعقيد المشهد: لا توجد خطوط فاصلة حادة بين الاستخدام المدني والعسكري عندما تكون النماذج الأساسية واحدة.
OpenAI تملأ الفراغ سريعاً
في الخلفية، تتحرك OpenAI بسرعة لملء الفراغ. تقارير إعلامية تشير إلى انتقال جهات حكومية، بينها وزارة الخارجية، من نماذج Claude إلى GPT-4.1. كما أن البنتاغون كان يختبر نماذج OpenAI منذ سنوات عبر تكامل مع خدمات مايكروسوفت السحابية.
هذا يكشف جانباً آخر من الصراع: المنافسة بين نماذج الذكاء الاصطناعي لم تعد محصورة في أداء النموذج أو عدد المعاملات، بل تشمل القدرة على الامتثال التنظيمي، وتحمّل التدقيق، وتقديم ضمانات أمنية على مستوى الدولة.
ما يحدث اليوم ليس مجرد نزاع قانوني بين شركة ووزارة، بل اختبار حقيقي لمكانة نماذج الذكاء الاصطناعي داخل البنية السيادية للدول. عندما تنتقل الخوارزميات من أدوات مساعدة إلى عناصر استراتيجية، تصبح قرارات تصنيفها أو استبعادها قرارات سياسية بقدر ما هي تقنية، وربما أكثر.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








