LEAP26

جوجل توسع تعاونها مع وزارة الدفاع الأمريكية في مجال الذكاء الاصطناعي بعد رفض أنثروبيك

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

توسع وزارة الدفاع الأميركية نطاق وصولها لتقنيات الذكاء الاصطناعي من Google.

رفضت Anthropic شروط استخدام نماذجها لأغراض المراقبة والأسلحة ذاتية التشغيل.

يوقع موظفو Google على عريضة ضد بيع تقنيات الذكاء الاصطناعي دون ضوابط.

تعكس صفقات الذكاء الاصطناعي تحولًا في الاقتصاد السياسي والأمن القومي.

يطرح استخدام الذكاء الاصطناعي في البيئات المصنفة تساؤلات حول الشفافية والمساءلة.

في كل مرة تُعلن فيها شركة تقنية عن شراكة مع جهة عسكرية، يعود الجدل القديم بصيغة جديدة. التكنولوجيا التي صُممت لتسهيل الحياة اليومية تجد نفسها فجأة داخل شبكات مصنفة وسيناريوهات أمن قومي، حيث تختلف الأولويات والمعايير. هذا ما يحدث اليوم مع توسّع وصول وزارة الدفاع الأميركية إلى تقنيات الذكاء الاصطناعي من Google، بعد رفض Anthropic تقديم الشروط ذاتها.


من رفض مشروط إلى موافقة مفتوحة

القصة بدأت عندما رفضت Anthropic منح وزارة الدفاع حرية استخدام نماذجها دون قيود، خصوصاً في سياقات مثل المراقبة الجماعية داخل الولايات المتحدة أو أنظمة الأسلحة ذاتية التشغيل. الشركة سعت لفرض ضوابط أخلاقية واضحة على استخدام نماذجها التوليدية في الشبكات المصنفة، ما أدى إلى تصنيفها من قبل البنتاغون كمخاطر على سلسلة التوريد، وهو توصيف يُستخدم عادة في سياقات أشد حساسية.

في المقابل، منحت Google الوزارة وصولاً أوسع إلى تقنياتها ضمن البيئات المصنفة، مع صياغات تعاقدية تشير إلى أنها لا تنوي استخدام نماذجها في المراقبة المحلية أو الأسلحة الذاتية. لكن بحسب تقارير صحفية مثل وول ستريت جورنال، تبقى مسألة إلزامية هذه البنود وحدود تنفيذها غير واضحة بالكامل.


سباق شركات الذكاء الاصطناعي نحو العقود الدفاعية

Google ليست وحدها في هذا المسار. OpenAI وxAI وقّعتا بدورهما اتفاقيات مع وزارة الدفاع، ما يعكس توجهاً أوسع نحو دمج تقنيات التعلم الآلي والنماذج اللغوية الكبيرة في البنية التحتية السيادية. بالنسبة لهذه الشركات، تمثل العقود الحكومية فرصاً استراتيجية من حيث التمويل، النفوذ، وإثبات القدرة على العمل في بيئات عالية الحساسية.

لكن هذه الخطوة تكشف أيضاً عن تحوّل عميق في موقع الذكاء الاصطناعي داخل الاقتصاد السياسي. لم يعد الأمر متعلقاً فقط بأدوات إنتاجية للشركات أو مساعدات رقمية للمستخدمين، بل بات جزءاً من مكونات الأمن القومي، وتحليل البيانات الاستخباراتية، وحتى دعم اتخاذ القرار العسكري.


الموظفون بين القيم والواقع

داخل Google نفسها، وقّع نحو 950 موظفاً رسالة مفتوحة تطالب الإدارة بعدم بيع تقنيات الذكاء الاصطناعي لوزارة الدفاع دون ضوابط مشابهة لتلك التي اقترحتها Anthropic. هذا الانقسام الداخلي يعكس توتراً أوسع في وادي السيليكون بين المثالية التقنية ومتطلبات السوق والسياسة.

فالعاملون في تطوير النماذج اللغوية وأنظمة الذكاء الاصطناعي غالباً ما يرون منتجاتهم كأدوات للبحث والإبداع وتسريع الابتكار. لكن عند انتقال هذه الأدوات إلى سياقات المراقبة أو الاستخدام العسكري، تتغير زاوية النظر. المسؤولية لم تعد تقنية فقط، بل أخلاقية وقانونية أيضاً.


بين الضمانات النظرية والواقع العملي

إدراج عبارات تعاقدية تمنع استخدام الذكاء الاصطناعي في مجالات معينة يبدو مطمئناً على الورق، لكن طبيعة البرمجيات السحابية والنماذج القابلة لإعادة التخصيص تطرح سؤالاً عملياً: من يراقب كيفية استخدام هذه الأنظمة فعلياً؟ في البيئات المصنفة، تكون الشفافية محدودة بطبيعتها، ما يجعل آليات الامتثال أكثر تعقيداً.

  • النماذج التوليدية يمكن تكييفها لعدة سيناريوهات دون تغيير جوهري في بنيتها.
  • الفصل بين الاستخدام الدفاعي المشروع والاستخدام المثير للجدل قد يكون مسألة تعريف قانوني لا تقني.
  • المساءلة العامة تصبح أصعب كلما ارتفع مستوى السرية.

الذكاء الاصطناعي كساحة صراع جديدة

ذو صلة

ما يحدث اليوم ليس مجرد صفقة تجارية، بل انعكاس لتحول أعمق في موقع شركات التقنية الكبرى. الذكاء الاصطناعي أصبح بنية تحتية استراتيجية، تماماً كما كانت شبكات الاتصالات أو الأقمار الصناعية في مراحل سابقة. وبينما تسعى الشركات لتوسيع حضورها وتأمين عقود سيادية، تتسع الفجوة بين الابتكار كخدمة للمستخدم، والابتكار كأداة قوة.

في النهاية، لا يتعلق الأمر بشركة واحدة وافقت وأخرى رفضت، بل بكيفية رسم حدود استخدام هذه التقنيات في زمن تتداخل فيه الخوارزميات مع القرار السيادي. الخط الفاصل بين الأداة والسلطة يبدو أكثر هشاشة من أي وقت مضى.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة