الرئيس التنفيذي لأنثروبيك داريو أمودي… هل ينجح في إصلاح علاقته مع البنتاغون؟
تعود شركة Anthropic إلى طاولة المفاوضات مع وزارة الدفاع الأمريكية بعد توترات.
بدأ النزاع عند مناقشات لاستخدام نموذج Claude في المراقبة والأسلحة.
ترى وزارة الدفاع الذكاء الاصطناعي كأولوية استراتيجية وتواصل التكامل العسكري.
يشير النزاع إلى ضغط كبير على العلاقة بين شركات التقنية وصناع القرار.
التقنيات مثل Claude وGPT لم تعد برمجيات فقط، بل عناصر في الجيوسياسة.
في كواليس صناعة القرار، لا تُدار الخلافات التقنية عبر التغريدات أو البيانات الصحفية فقط، بل خلف أبواب ثقيلة تُغلق على نقاشات حساسة تتقاطع فيها الخوارزميات مع الأمن القومي. هذا بالضبط ما يحدث اليوم بين شركة Anthropic ووزارة الدفاع الأمريكية، في واحدة من أكثر القضايا إثارة للجدل في علاقة وادي السيليكون بالمؤسسة العسكرية.
أزمة بدأت بالذكاء الاصطناعي وانتهت بالسياسة
بحسب تقرير نشره موقع Financial Times، عاد المدير التنفيذي لشركة Anthropic، داريو أمودي، إلى طاولة المفاوضات مع وزارة الدفاع الأمريكية، بعد أسبوع عاصف شهد توتراً علنياً غير مسبوق. النزاع بدأ عندما كانت الشركة في نقاشات حول إمكانية استخدام نموذج Claude في أنظمة تتعلق بالمراقبة واسعة النطاق والأسلحة ذاتية التشغيل.
المفارقة أن البنتاغون، وفق التقارير، اعتبر موقف الشركة نوعاً من التحدي السياسي، وصولاً إلى تصنيفها كمخاطر على سلاسل التوريد الدفاعية، في خطوة وُصفت بأنها تصعيد قانوني وإداري. وخلال الفترة نفسها، كانت الوزارة تستخدم أدوات Claude نفسها في سياق الاستعدادات العسكرية.
الموقف الأخلاقي أم الحسابات الاستراتيجية؟
في مذكرة داخلية نُقلت تفاصيلها لوسائل الإعلام، أشار أمودي إلى أن شركته لم تقدم ما سماه إشادات ذات طابع سلطوي للإدارة الأمريكية، كما لم تتراجع عن دعمها لفكرة تنظيم الذكاء الاصطناعي. هذا التصريح يضع Anthropic في موقع مختلف عن منافستها OpenAI، التي أبرمت لاحقاً اتفاقية تتيح استخدام تقنياتها في قنوات مصنفة سرياً.
الاختلاف لم يكن تقنياً بحتاً، بل متعلقاً بحدود الاستخدام وسياسة السلامة.
وهنا يظهر السؤال الأعمق: هل يمكن لشركة تطور نماذج لغوية متقدمة أن ترسم خطاً فاصلاً واضحاً بين البحث التجاري والمتطلبات العسكرية، في ظل سوق تنافسية وضغوط استثمارية متزايدة؟
البنتاغون والذكاء الاصطناعي: سباق بلا رفاهية الرفض
المؤسسة العسكرية الأمريكية تنظر إلى الذكاء الاصطناعي كأولوية استراتيجية، سواء في تحليل البيانات الاستخباراتية أو دعم أنظمة اتخاذ القرار أو الأتمتة الميدانية. في هذا السياق، فإن استبعاد شركة بحجم Anthropic ليس قراراً بسيطاً، خاصة في ظل سباق عالمي مع قوى كبرى تستثمر بقوة في التقنيات الدفاعية المعززة بالخوارزميات.
- نماذج اللغة الكبيرة أصبحت أداة تحليل فوري للبيانات غير المنظمة.
- التكامل بين الذكاء الاصطناعي والبنية التحتية العسكرية يتسارع بوتيرة عالية.
- الاعتماد على مزود واحد يخلق مخاطر احتكارية وتقنية.
لذلك تبدو عودة المفاوضات منطقية من زاوية المصالح المتبادلة، مهما بلغت حدة التصريحات.
الصناعة التقنية بين الضغط الأخلاقي والواقع السياسي
اللافت أن مجلس صناعة التكنولوجيا، الذي يضم شركات كبرى مثل Nvidia وأمازون وآبل، أعرب عن قلقه من تداعيات النزاع، دون تسمية الطرف المعني مباشرة. هذا يشير إلى مخاوف أوسع داخل القطاع من أن تتحول الخلافات مع الجهات الحكومية إلى أداة ضغط مؤسسية تؤثر في المنافسة وسلاسل التوريد.
في النهاية، القضية لا تتعلق بشركة واحدة أو صفقة حكومية، بل برسم ملامح العلاقة بين مطوري الذكاء الاصطناعي وصناع القرار. هل يكون دور الشركات تنفيذياً بحتاً؟ أم شريكاً يضع شروطاً أخلاقية وحدود استخدام؟
ما يحدث اليوم قد يكون مجرد جولة ضمن مسار طويل من الشد والجذب بين التقنية والسلطة. لكن المؤكد أن نماذج مثل Claude وGPT لم تعد أدوات برمجية فقط، بل أصبحت عناصر فاعلة في معادلات الجيوسياسة، حيث يتحول سطر الشيفرة إلى قرار قد يمتد أثره أبعد بكثير من شاشة الحاسوب.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26



