LEAP26

البنتاغون اختبر نماذج OpenAI سرًا في 2023 رغم الحظر العسكري

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

تستخدم وزارة الدفاع الأمريكية نماذج OpenAI منذ عام 2023 رغم الحظر السابق للشركة.

كشفت تقارير عن تجارب البنتاغون مع الذكاء الاصطناعي عبر خدمة Azure OpenAI.

عدّلت OpenAI سياستها في يناير 2024 لتسمح بالاستخدامات العسكرية للنماذج.

يثير استخدام النماذج العسكرية مخاوف حول التأثير في مناطق النزاع وشفافية القرار.

تعتبر الحكومات الذكاء الاصطناعي أصولًا استراتيجية بجانب أشباه الموصلات وشبكات الاتصال.

حين تتحول أدوات الذكاء الاصطناعي من مختبرات الأبحاث إلى غرف العمليات العسكرية، يصبح السؤال أعمق من مجرد صفقة تجارية. إنه سؤال عن حدود التقنية، ومن يملك القرار في توجيهها. تقرير حديث كشف أن وزارة الدفاع الأمريكية بدأت اختبار نماذج OpenAI منذ عام 2023، رغم أن الشركة كانت تفرض آنذاك حظراً شاملاً على الاستخدامات العسكرية.


اختبارات مبكرة خلف الكواليس

بحسب تقرير نشره موقع WIRED، اكتشف موظفو OpenAI في 2023 أن البنتاغون كان يجرب نماذج الشركة عبر خدمة Azure OpenAI التي توفرها مايكروسوفت. هذه الخدمة تُعد قناة رسمية تتيح للحكومات والمؤسسات الوصول إلى نماذج الذكاء الاصطناعي ضمن إطار تعاقدي خاص، وهو ما يضيف طبقة من التعقيد إلى مسألة “الحظر” المعلن.

العلاقة الطويلة بين مايكروسوفت ووزارة الدفاع الأمريكية جعلت هذا الوصول ممكناً تقنياً، حتى وإن لم يكن منسجماً تماماً مع سياسة OpenAI في ذلك الوقت. هنا يظهر التداخل بين الشراكات التجارية والبنية التحتية السحابية والسياسات الأخلاقية للشركات الناشئة.


من الحظر إلى الشراكة

في يناير 2024، عدّلت OpenAI سياستها المتعلقة بالاستخدامات العسكرية، منهية الحظر الشامل السابق. وبعدها بشهور أعلنت شراكة مع شركة Anduril المتخصصة في تقنيات الدفاع لتطوير نماذج ذكاء اصطناعي مخصصة لمهام “الأمن القومي”. التحول لم يكن تقنياً فقط، بل استراتيجياً أيضاً.

هذا المسار يعكس تحوّلاً أوسع في صناعة الذكاء الاصطناعي، حيث أصبحت النماذج اللغوية المتقدمة جزءاً من حسابات الأمن السيبراني، التحليل الاستخباراتي، واتخاذ القرار. لم تعد المسألة مجرد روبوت دردشة، بل بنية معرفية يمكن توجيهها لأغراض حساسة.


انقسام داخلي وأسئلة أخلاقية

الصفقة مع البنتاغون أثارت جدلاً داخل OpenAI نفسها. بعض الموظفين عبّروا علناً عن قلقهم من توظيف النماذج في سياقات عسكرية يصعب تتبع تأثيرها أو مساءلتها.


أكبر الخاسرين هم المدنيون في مناطق النزاع... فهم آثار الذكاء الاصطناعي العسكري سيصبح أكثر صعوبة بسبب طبقات الغموض التقنية والسياسية.

هذا القلق لا يرتبط فقط بالشفافية، بل بطبيعة النماذج ذاتها. أنظمة التعلم العميق كثيراً ما توصف بأنها “صناديق سوداء”، مما يجعل تفسير قراراتها أو تحميل المسؤولية عن نتائجها أمراً معقداً، خصوصاً في بيئات الصراع.


مايكروسوفت في المنتصف

تصريحات مايكروسوفت أوضحت أن خدمة Azure OpenAI أصبحت متاحة للحكومة الأمريكية في 2023، لكنها لم تكن مهيأة للأعمال “فائقة السرية” حتى 2025. ورغم عدم تأكيد مباشر عن إتاحة الخدمة للبنتاغون تحديداً، فإن السياق يكشف كيف تلعب الشركات السحابية دور الوسيط التقني بين مطوري النماذج والجهات الحكومية.

  • البنية التحتية السحابية تتيح الوصول حتى عند وجود قيود على مستوى الشركة المطورة.
  • الفصل بين المطور ومزود الخدمة يخلق مساحات رمادية تنظيمياً.
  • التقنيات العامة تصبح أدوات استراتيجية بمجرد تغيير سياق استخدامها.

الذكاء الاصطناعي بين السوق والدولة

ذو صلة

مع توسع الذكاء الاصطناعي التوليدي، بدأت الحكومات تنظر إلى هذه النماذج كأصول استراتيجية لا تقل أهمية عن أشباه الموصلات أو شبكات الاتصالات. تصريحات سام ألتمان حول اهتمامه بتزويد حلف الناتو بالنماذج تعكس رؤية ترى في الذكاء الاصطناعي بنية تحتية جيوسياسية، لا مجرد منتج برمجي.

في النهاية، لا يتعلق الأمر بتناقض بين “حظر” و”تجربة”، بل بحقيقة أن الذكاء الاصطناعي أصبح ساحة توازن دقيقة بين الابتكار والمسؤولية، بين الأمن والشفافية. وكلما زادت قدرات النماذج، زاد وزن القرارات التي تحدد أين وكيف تُستخدم.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة