وكالة الأمن القومي الأمريكية تعتمد أداة ميثوس من أنثروبيك رغم الحظر الرسمي
أفادت Axios بأن وكالة الأمن القومي تستخدم أداة الذكاء الاصطناعي Mythos Preview لشركة Anthropic.
هذا الاستخدام يتناقض مع تحذيرات وزارة الدفاع التي صنفت الشركة كمخاطر سلسلة الإمداد.
تعتمد الوكالات الأمنية على أدوات الذكاء الاصطناعي الفعالة لتحليل البيانات الضخمة.
طرح هذه التقنية يبرز التوتر بين الابتكار والامتثال في المؤسسات الحكومية.
سوق الذكاء الاصطناعي يشهد منافسة كبيرة بين OpenAI, Google DeepMind وAnthropic وغيرها.
في العادة، حين تُدرج جهة ما على “قائمة مخاطر” داخل أروقة الدفاع، يُفترض أن تُغلق الأبواب بهدوء. لكن الواقع أكثر تعقيداً؛ فالتكنولوجيا لا تنتظر اكتمال الإجراءات البيروقراطية. تقرير حديث من Axios أشار إلى أن وكالة الأمن القومي الأمريكية تستخدم أداة الذكاء الاصطناعي Mythos Preview من شركة Anthropic، رغم أن البنتاغون صنّف الشركة ضمن مخاطر سلاسل التوريد.
استخدام فعلي رغم التحفظ الرسمي
بحسب التقرير، فإن أداة Mythos تُستخدم داخل وكالة الأمن القومي، في وقت كانت فيه وزارة الدفاع قد أطلقت تصنيفاً رسمياً يحذر من مخاطر مرتبطة بسلسلة الإمداد الخاصة بالشركة. هذا التناقض بين الممارسة والتصنيف يسلّط الضوء على الفجوة المعتادة بين قرارات الامتثال النظري واحتياجات التشغيل اليومية.
في بيئة أمن قومي تعتمد على تحليل البيانات الضخمة، وأتمتة العمليات الاستخباراتية، ونماذج اللغة المتقدمة، يصبح إيقاف أداة فعالة قراراً باهظ التكلفة من الناحية العملياتية، حتى لو كان هناك تحفظ إداري قيد المراجعة.
سلاسل التوريد في عصر الذكاء الاصطناعي
تصنيفات “مخاطر سلسلة التوريد” ليست جديدة في قطاع الدفاع. لكنها في سياق الذكاء الاصطناعي تأخذ بعداً مختلفاً. فالأمر لا يتعلق بمكوّن مادي يمكن تتبعه، بل بنماذج تعلم عميق، وبنى تحتية سحابية، واعتماد متزايد على واجهات برمجية خارجية.
شركات مثل Anthropic تطوّر نماذج لغوية متقدمة تُستخدم في التحليل، التلخيص، اكتشاف الأنماط، وحتى دعم القرارات المعقدة. في هذه الحالة، يصبح السؤال أقل ارتباطاً بـ”من يملك الخوادم” وأكثر ارتباطاً بـ”كيف يتم تدريب النموذج، ومن يستطيع الوصول إلى البيانات”.
- الذكاء الاصطناعي الدفاعي يعتمد على دقة النموذج وسرعة الاستجابة.
- أي تعطل مفاجئ قد يؤثر على تدفق العمل الاستخباراتي.
- إعادة بناء نظام بديل ليست عملية فورية.
الذكاء الاصطناعي بين الابتكار والامتثال
القضية تعكس توتراً أوسع تعيشه المؤسسات الحكومية حالياً: سباق تبني أدوات الذكاء الاصطناعي من جهة، وضغوط الحوكمة والامتثال من جهة أخرى. فوكالات الأمن تحتاج إلى أفضل التقنيات المتاحة لتحليل الإشارات والبيانات، لكنّ أطر التقييم والاعتماد غالباً ما تأتي لاحقاً للتبني الفعلي.
هذا النمط تكرر في حالات سابقة مع خدمات سحابية ومنصات تحليل بيانات، حيث تصبح التكنولوجيا جزءاً من البنية التشغيلية قبل أن تنتهي لجان المخاطر من مراجعاتها الكاملة.
ماذا يعني ذلك لسوق الذكاء الاصطناعي؟
استخدام Mythos داخل وكالة بحجم وتأثير وكالة الأمن القومي يمنح إشارة قوية إلى قدرة أدوات Anthropic التقنية، حتى لو كانت هناك ملاحظات تنظيمية. في سوق يشهد منافسة محتدمة بين OpenAI وGoogle DeepMind وAnthropic وغيرها، فإن اعتماد جهة سيادية كبرى يُعد مؤشراً على الجدارة التقنية، ولو خلف الأبواب المغلقة.
في الوقت نفسه، يبرز هذا التطور حساسية العلاقة بين الشركات الناشئة في الذكاء الاصطناعي والمؤسسات الدفاعية، حيث تتداخل اعتبارات الأمن السيبراني، وإدارة المخاطر، والسيادة الرقمية.
القصة هنا ليست فقط عن أداة ذكاء اصطناعي في مواجهة قرار إداري، بل عن مرحلة انتقالية يعيشها القطاع العام وهو يحاول استيعاب موجة الأتمتة المتقدمة دون أن يفقد زمام الرقابة. في هذا التوازن الدقيق، تبدو الحقيقة أوضح من أي تصنيف: التكنولوجيا تتقدم بسرعة أكبر من قدرتنا على تنظيمها، والقرارات العملية غالباً ما تسبق العناوين الرسمية.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








