ترامب يهدد بقطع الإمدادات عن أنثروبيك ويتهمها بأنها «مليئة بالمتطرفين اليساريين»
شهدت Anthropic مواجهة علنية مع الإدارة الأميركية لرفضها تعديل سياسات الأمنية لنموذج Claude.
تشدد الرئيس ترامب وطالب بوقف استخدام تقنيات الشركة في الحكومة بعد ستة أشهر.
التصنيف كـ"مخاطر سلاسل إمداد" قد يمنع أي تعاقد حكومي مع الشركة.
الجدل يعكس صداماً بين سيادة الدولة واستقلالية الشركات التقنية.
مستقبل الذكاء الاصطناعي يرتبط بتحديد ضوابط استخدامه في السياقات الأمنية.
في لحظة تبدو فيها العلاقة بين وادي السيليكون والبنتاغون أقرب إلى شراكة استراتيجية طويلة الأمد، انفجر خلاف غير مسبوق بين البيت الأبيض وشركة Anthropic الناشئة. خلاف لم يعد تقنياً بحتاً، بل تحوّل إلى مواجهة سياسية علنية تهدد بإقصاء الشركة من كامل المنظومة الفيدرالية الأميركية بسبب رفضها إزالة قيود أمان مدمجة في نموذجها Claude.
قرار رئاسي بقطع الاستخدام الحكومي
بحسب تقرير نشره موقع Gizmodo، هاجم الرئيس الأميركي دونالد ترامب الشركة بلهجة حادة، معلناً توجيهاته لكل الوكالات الفيدرالية بوقف استخدام تقنياتها خلال مهلة انتقالية مدتها ستة أشهر. المبرر المعلن: رفض Anthropic إزالة ضوابط تمنع استخدام نموذجها اللغوي في المراقبة الداخلية واسعة النطاق أو في أنظمة أسلحة ذاتية التشغيل بالكامل.
وزير الدفاع ذهب أبعد من ذلك، مهدداً بتصنيف الشركة “مخاطر سلاسل إمداد”، وهي خطوة تعني عملياً حظر أي متعاقد حكومي من التعامل معها، ما يضع ليس فقط عقودها العسكرية في مهب الريح، بل أيضاً شبكة شركائها ومزودي البنية التحتية السحابية.
صدام بين شروط الخدمة والسلطة التنفيذية
جوهر الأزمة ليس تقنياً بقدر ما هو قانوني وأخلاقي. فالشركة ضمّنت في شروط الاستخدام قيوداً واضحة تمنع توظيف نموذج الذكاء الاصطناعي في تطبيقات تعتبرها عالية المخاطر، مثل المراقبة الجماعية أو تشغيل أنظمة قتالية مستقلة دون تدخل بشري. هذه القيود تعكس توجهاً متزايداً في قطاع الذكاء الاصطناعي نحو الحوكمة والامتثال والمساءلة.
لكن الإدارة الأميركية ترى أن القرار النهائي بشأن كيفية استخدام التكنولوجيا في السياق العسكري يجب أن يبقى بيد الدولة، لا بيد شركة خاصة، حتى لو كانت مزوداً تقنياً. هنا يتشكل احتكاك مباشر بين سيادة القرار السياسي واستقلالية الشركات التقنية في تحديد إطار الاستخدام.
تداعيات محتملة على السوق والشركاء
تصنيف “مخاطر سلاسل الإمداد” إن تم تثبيته سيخلق تأثيراً متسلسلاً. شركات توفر خدمات داعمة لـ Anthropic، مثل مزودي البنية التحتية للحوسبة السحابية المخصصة للأعمال الحساسة، قد تجد نفسها مضطرة لإعادة ترتيب علاقاتها التعاقدية. كما أن متعاقدين دفاعيين يستخدمون تقنيات Claude في تطبيقات تحليل البيانات أو دعم القرار سيتعين عليهم البحث عن بدائل بسرعة.
- إعادة توزيع العقود قد تعزز حضور منافسين مباشرين في سوق الذكاء الاصطناعي الدفاعي.
- المخاطرة التنظيمية ستصبح عاملاً أساسياً في تقييم شركات النماذج اللغوية.
- الاستثمار في تقنيات الأمان قد يتحول من ميزة تنافسية إلى عبء سياسي.
هل نحن أمام سابقة في علاقة الدولة بالتقنية؟
اللافت أن هذه المواجهة لا تتعلق بخرق قانون أو عقوبات دولية، بل برفض شركة تعديل سياساتها التشغيلية لتناسب طلباً حكومياً. هذا يفتح باباً معقداً حول حدود سلطة الحكومة في فرض معايير استخدام على أدوات الذكاء الاصطناعي، خصوصاً ضمن سياقات الأمن القومي.
كما أن التلويح باستخدام قوانين مثل قانون الإنتاج الدفاعي يضيف بعداً تصعيدياً، إذ ينقل الخلاف من نقاش تعاقدي إلى مستوى صلاحيات استثنائية تُستخدم عادة في أوقات الطوارئ.
الذكاء الاصطناعي بين الأخلاق والجغرافيا السياسية
منذ صعود النماذج اللغوية التوليدية، أصبح الحديث عن السلامة والأخلاقيات والحوكمة جزءاً من هوية الشركات التقنية الكبرى. لكن هذه القضية تكشف هشاشة هذا الخطاب عندما يصطدم بالمصالح العسكرية والاعتبارات الجيوسياسية. فبينما تسعى شركات الذكاء الاصطناعي لتقييد الاستخدامات عالية المخاطر حمايةً لسمعتها والتزاماتها الأخلاقية، ترى الحكومات في هذه الأدوات أصولاً استراتيجية لا يمكن تقييدها بشروط خدمة.
الخلاف بين الإدارة الأميركية وAnthropic قد يبدو في ظاهره نزاعاً سياسياً عابراً، لكنه في عمقه اختبار حقيقي لمعادلة السلطة في عصر الذكاء الاصطناعي. من يحدد حدود استخدام الخوارزميات عندما تصبح جزءاً من البنية الدفاعية للدول؟ الإجابة لن تؤثر على شركة واحدة فقط، بل على شكل العلاقة المقبلة بين الدولة والتقنية في العقد القادم.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26






