ASUS

وزير الدفاع الأمريكي يمنح أنثروبيك مهلة لفتح تقنيتها العسكرية… أو خسارة العقد الحكومي

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

تثير تقنية الذكاء الاصطناعي قضايا جديدة في النقاشات العسكرية الرفيعة.

يدرس البنتاغون تصنيف شركة Anthropic كمخاطر على سلسلة التوريد بسبب خلافات.

شركة Anthropic ترفض مراقبة الأمريكيين أو تطوير أسلحة دون إشراف بشري.

شركات مثل OpenAI وGoogle مستعدة لتخفيف القيود لتقديم نماذجها للبنتاغون.

النزاع يعكس التوازن بين تسارع التقنية ومتطلبات الأمن الوطني.

حين تدخل تقنيات الذكاء الاصطناعي إلى غرف مغلقة تُناقش فيها الخطط العسكرية، تتغيّر طبيعة النقاش بالكامل. لم تعد المسألة تتعلق بخوارزمية تُحسّن نتائج البحث أو تكتب ملخصاً أسرع، بل بأدوات قد تؤثر في قرارات تمسّ الأمن القومي. هذا تحديداً ما يكشفه تقرير حديث عن توتر متصاعد بين وزارة الدفاع الأميركية وشركة Anthropic المطوّرة لنموذج Claude.


خلاف يتجاوز عقود التقنية

بحسب تقرير نشره موقع Axios، يدرس البنتاغون تصنيف Anthropic على أنها “مخاطر على سلسلة التوريد” بعد خلاف حول حدود استخدام نموذج Claude في العمليات العسكرية. هذا التصنيف، إن طُبّق، قد يفرض على متعاقدي وزارة الدفاع الاختيار بين مواصلة العمل مع الشركة أو الحفاظ على عقودهم الحكومية.

المسألة هنا ليست إدارية فقط. Claude هو حالياً النموذج الوحيد المصرّح باستخدامه داخل الأنظمة المصنفة للوزارة. أي قرار بفك الارتباط يعني إعادة هيكلة تقنية معقدة لأنظمة تعتمد بالفعل على هذا النموذج في مهام حساسة.


تفكيك هذا الاعتماد سيكون “أمراً مرهقاً للغاية”، وفق ما نقل التقرير عن مسؤول في وزارة الدفاع.


الحدود الأخلاقية في مواجهة المتطلبات العسكرية

جوهر الخلاف يتمحور حول شروط الاستخدام. Anthropic، كما ورد، أبدت استعداداً لتخفيف بعض القيود، لكنها وضعت خطوطاً واضحة في ما يتعلق بالمراقبة الجماعية للأميركيين أو تطوير أنظمة تسليح قادرة على العمل دون إشراف بشري مباشر.

في المقابل، تسعى وزارة الدفاع للحصول على تأكيدات تتيح استخدام البرمجيات لأغراض “قانونية كافة”، وهي صيغة واسعة تعكس رغبة في مرونة تشغيلية كاملة. هنا يظهر التوتر القديم المتجدد بين أخلاقيات الذكاء الاصطناعي ومتطلبات المؤسسات العسكرية، حيث يصبح مبدأ الإشراف البشري موضع تفاوض.

  • الشركات التقنية تحاول حماية سمعتها وقيمها المعلنة.
  • المؤسسات الدفاعية تبحث عن تفوق عملياتي بأقل قيود ممكنة.
  • الذكاء الاصطناعي أصبح جزءاً من البنية التحتية للأمن القومي.

ساحة تنافس بين عمالقة التقنية

التقرير يشير أيضاً إلى أن شركات أخرى مثل OpenAI وGoogle وxAI أبدت استعداداً لتخفيف بعض قيودها إذا قرر البنتاغون استخدام نماذجها، وإن كان ذلك في نطاق الأنشطة غير المصنفة. هذا يضع Anthropic تحت ضغط تنافسي مزدوج: أخلاقي من جهة، وسوقي من جهة أخرى.

الدخول إلى عقود الدفاع يعني موارد ضخمة وتأثيراً استراتيجياً، لكنه أيضاً يضع الشركات تحت مجهر سياسي وتنظيمي متواصل. بالنسبة لشركات الذكاء الاصطناعي الناشئة نسبياً، فإن فقدان عميل بحجم وزارة الدفاع قد يعيد تشكيل أولوياتها ونموذج أعمالها.


من يتحكم في خوارزميات الحرب؟

تاريخياً، كانت البرمجيات العسكرية تُطوّر داخل منظومات مغلقة. أما الآن، فالنماذج اللغوية الكبيرة وأنظمة التعلم الآلي تُطوَّر في القطاع الخاص، وتُستخدم في سياقات مدنية وتجارية واسعة قبل أن تجد طريقها إلى الاستخدامات الدفاعية. هذه الازدواجية تخلق تضارباً محتملاً بين قيم الشفافية والسلامة من جهة، ومتطلبات السرية والكفاءة القتالية من جهة أخرى.

ذو صلة

عندما يصبح نموذج ذكاء اصطناعي مثل Claude جزءاً من عمليات عسكرية حساسة، فإن قرار تقييد استخدامه أو توسيعه لا يؤثر فقط على عقد تجاري، بل على شكل العلاقة المستقبلية بين وادي السيليكون ومؤسسات الدفاع. الحدود التي تُرسم اليوم قد تحدد معايير الاستخدام العسكري للذكاء الاصطناعي لسنوات مقبلة.

في النهاية، لا يبدو الخلاف مجرد نزاع تعاقدي. إنه اختبار مبكر لكيفية توازن العالم بين تسارع تقني هائل ورغبة الدول في توظيفه بلا قيود تقريباً. والسؤال الأهم لم يعد من يملك أقوى نموذج، بل من يملك القرار النهائي بشأن كيفية استخدامه.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة