LEAP26

اتفاق جديد يجمع OpenAI والبنتاغون… وسام ألتمان يكشف التفاصيل

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

أعلنت OpenAI عن اتفاق يسمح للبنتاغون باستخدام نماذجها داخل الشبكات السرية.

الاتفاق يتضمن ضمانات تقنية تحظر المراقبة الجماعية وتُلزم بمسؤولية بشرية.

الجدل يعكس توتراً حول فرض معايير أخلاقية على الجهات السيادية.

تصاعد الخلاف داخل شركات التقنية حول طبيعة العلاقة مع المؤسسات الدفاعية.

الذكاء الاصطناعي أصبح جزءاً من البنية الاستراتيجية للدول، وليس مجرد أداة إنتاجية.

في لحظات التوتر الجيوسياسي، تتضح العلاقات خلف الكواليس بسرعة لافتة. ما كان يُناقش في الاجتماعات المغلقة يصبح فجأة محور عناوين الأخبار، خصوصاً حين يتعلق الأمر بالذكاء الاصطناعي واستخدامه في غرف العمليات العسكرية. هذا الأسبوع، وجد وادي السيليكون نفسه في قلب معادلة حساسة بين المبادئ التقنية ومتطلبات الأمن القومي.


اتفاق يملأ فراغاً سياسياً

أعلن سام ألتمان أن شركته توصّلت إلى اتفاق يسمح لوزارة الدفاع الأمريكية باستخدام نماذج OpenAI داخل الشبكات المصنفة سرياً. الإعلان جاء بعد أيام من خلاف علني بين البنتاغون وشركة Anthropic، التي رفضت السماح باستخدام نماذجها في المراقبة الجماعية المحلية أو في أنظمة أسلحة مستقلة بالكامل.

هنا لا يتعلق الأمر بعقد تقني فحسب، بل بفراغ سياسي وتنفيذي تحرّك بسرعة. فبعد أن وجدت Anthropic نفسها في مواجهة مباشرة مع الإدارة الأمريكية، بدا أن OpenAI تتحرك لتثبيت موقعها كمزود موثوق للبنية التحتية المعتمدة على النماذج اللغوية داخل المؤسسات الحكومية.


خطوط حمراء مشتركة أم صياغة مختلفة؟

اللافت أن ألتمان أكد أن الاتفاق يتضمن ما وصفه بـ"ضمانات تقنية" تحظر المراقبة الجماعية الداخلية وتُلزم بوجود مسؤولية بشرية في استخدام القوة، بما في ذلك الأنظمة ذاتية التشغيل. وهي تقريباً المبادئ نفسها التي تمسكت بها Anthropic في خلافها.

الفرق هنا لا يبدو في المبدأ بل في آلية التنفيذ. OpenAI تقول إنها ستبني "طبقة أمان" خاصة بها، تتيح للنموذج رفض المهام غير المتوافقة مع سياساتها حتى داخل السياق العسكري. وبحسب ما نُقل عن اجتماع داخلي للموظفين، فإن الحكومة لن تُجبر الشركة على إعادة ضبط النموذج لتنفيذ مهمة رفضها مسبقاً.


الرهان الحقيقي ليس في نص العقد، بل في من يتحكم فعلياً بطبقة الأمان البرمجية.


الذكاء الاصطناعي بين السيادة والقيم

الخلاف يعكس توتراً أوسع: إلى أي حد يمكن لشركات تطوير النماذج المتقدمة أن تفرض معايير أخلاقية على جهات سيادية؟ وزارة الدفاع كانت قد طالبت باستخدام النماذج في "جميع الأغراض القانونية"، وهي صياغة واسعة قد تشمل تطبيقات حساسة تتجاوز الاستخدامات اللوجستية أو التحليلية التقليدية.

في المقابل، تخشى شركات مثل Anthropic من أن يؤدي الانخراط غير المشروط إلى تقويض مبادئ الحوكمة التي تروّج لها صناعة الذكاء الاصطناعي، خصوصاً في ما يتعلق بالمراقبة الجماعية والأسلحة الذاتية. وبدخول OpenAI على الخط، يبدو أن المعادلة انتقلت من مواجهة مفتوحة إلى تفاهم مشروط تقنياً.


البعد المؤسسي داخل شركات التقنية

لم يكن الجدل خارجياً فقط. عشرات الموظفين في OpenAI ومئات العاملين في Google وقعوا رسالة دعم لموقف Anthropic. هذا يكشف عن انقسام داخلي متنامٍ داخل شركات التكنولوجيا الكبرى حول طبيعة العلاقة مع المؤسسات الدفاعية.

الصناعة التي نشأت على خطاب الانفتاح والتحول الرقمي تجد نفسها الآن أمام اختبار صعب: هل يمكن الجمع بين تطوير نماذج لغوية عامة الاستخدام وبين تشغيلها داخل بنى عسكرية مغلقة؟ المسألة لم تعد نظرية، بل تتعلق ببيئات نشر حقيقية، وببروتوكولات وصول، وبسلاسل توريد قد تُغلق بالكامل أمام شركات بعينها.

  • توسّع استخدام النماذج داخل شبكات مصنفة سرياً يرفع سقف متطلبات الأمان والتحكم.
  • طبقات الحماية البرمجية قد تتحول إلى عنصر تفاوض أساسي في العقود الحكومية.
  • القرارات السياسية يمكن أن تعيد ترتيب خريطة موردي الذكاء الاصطناعي خلال أيام.

ما الذي تغيّر فعلاً؟

من الناحية العملية، لم يتغير الخطاب الأخلاقي كثيراً. ما تغير هو موقع التفاوض. فبدلاً من رفض علني قد يؤدي إلى إقصاء كامل من السوق الحكومي، اختارت OpenAI طريق التكييف التقني: قبول الاستخدام ضمن إطار تعاقدي يثبت مبادئها داخل الشفرة نفسها.

ذو صلة

المشهد لا يزال قابلاً للتحول، خصوصاً في ظل تصعيد سياسي وعسكري متزامن. لكن الواضح أن الذكاء الاصطناعي لم يعد مجرد أداة إنتاجية أو منصة ابتكار تجاري، بل أصبح جزءاً من البنية الاستراتيجية للدول. وفي هذه المساحة الرمادية، ستختبر الشركات ليس فقط قدراتها الهندسية، بل أيضاً قدرتها على التوفيق بين القيم والمصالح.

ربما كان الخلاف بين Anthropic والبنتاغون لحظة كاشفة: الذكاء الاصطناعي لم يعد سؤالاً تقنياً بحتاً، بل أصبح مرآة تعكس حدود القوة والرقابة والمسؤولية في عصر الخوارزميات.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة