LEAP26

أنثروبيك تكسب دعم موظفين من OpenAI وغوغل في نزاعها مع وزارة الدفاع

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

رفضت أنثروبيك السماح باستخدام تقنياتها للرقابة الجماعية أو تسيير أسلحة ذاتية.

صنفت وزارة الدفاع الشركة كخطر على سلاسل التوريد، مما أثار صراعات قانونية.

تلقى أنثروبيك دعماً من موظفي منافسين، محذرين من ضرر الابتكار ومنافسة الذكاء الاصطناعي.

تُبرز القضية توازنًا حساسًا بين الأمن القومي والحريات المدنية.

القرار يؤثر على الوصول للعقود الفيدرالية ويزيد الضغوط حول الاستخدام العسكري.

حين ترفض شركة تقنية طلباً حكومياً، لا يكون الخلاف تقنياً فحسب، بل اختباراً لطبيعة القوة في عصر الذكاء الاصطناعي. هذا ما حدث مع أنثروبيك، بعدما صنّفتها وزارة الدفاع الأميركية كمخاطر على سلاسل التوريد، في خطوة نادرة عادة ما تُستخدم بحق خصوم أجانب، لا شركات ناشئة في وادي السيليكون.


من خلاف تعاقدي إلى معركة دستورية

القضية بدأت عندما رفضت أنثروبيك السماح باستخدام نماذجها في المراقبة الجماعية للأميركيين أو في تشغيل أسلحة ذاتية بالكامل دون تدخل بشري. وزارة الدفاع رأت أن من حقها استخدام تقنيات الذكاء الاصطناعي لأي غرض “قانوني”، بينما تمسكت الشركة بخطوط حمراء مرتبطة بالسلامة والأخلاقيات.

الرد الحكومي جاء قاسياً: تصنيف الشركة كخطر على سلاسل التوريد، ما يعني عملياً استبعادها من عقود اتحادية واسعة، وإلزام جهات متعاقدة بعدم استخدام نماذجها. أنثروبيك اعتبرت الخطوة انتقاماً بسبب مواقفها العلنية بشأن حدود استخدام الذكاء الاصطناعي، ورفعت دعوى أمام محكمتين للطعن في القرار.


دعم غير معتاد من داخل المنافسين

اللافت أن أكثر من ثلاثين موظفاً من أوبن إيه آي وجوجل ديب مايند تقدموا بمذكرة دعم قانونية لصالح أنثروبيك. في صناعة تقوم على المنافسة الحادة، يُعد هذا الموقف إشارة واضحة إلى أن المسألة تتجاوز شركة بعينها.


اعتبر الموقعون أن استخدام تصنيف المخاطر بهذه الطريقة قد يضر بالابتكار ويقوّض قدرة الولايات المتحدة التنافسية في مجال الذكاء الاصطناعي.

بعض هؤلاء الموظفين كانوا قد عبّروا سابقاً عن قلقهم من عقود عسكرية مشابهة، ما يكشف تصاعد تيار داخلي في كبرى مختبرات النماذج اللغوية يطالب بضوابط أوضح لاستخدامات التقنية في مجالي الدفاع والمراقبة.


الذكاء الاصطناعي بين الأمن والحرية

القضية تسلط الضوء على معادلة شديدة الحساسية: الأمن القومي مقابل الحريات المدنية. في غياب تشريع شامل ينظّم استخدام الأنظمة التوليدية في السياقات العسكرية، تحاول الشركات فرض قيود تعاقدية وتقنية على عملائها، بما في ذلك الحكومات.

هذه القيود أصبحت جزءاً من هوية بعض الشركات، التي ترى أن مسؤوليتها لا تنتهي عند إطلاق النموذج، بل تمتد إلى كيفية استخدامه. لكن عندما يكون العميل جهة سيادية، تتحول القيود إلى ساحة صراع حول من يملك القرار النهائي.


أثر القرار على السوق والابتكار

تصنيف “مخاطر على سلاسل التوريد” لا يعني فقط خسارة عقد، بل قد يُفقد الشركة إمكانية الوصول إلى منظومة المشتريات الفيدرالية بأكملها. كما يرسل إشارة سلبية إلى مستثمرين وشركاء محتملين.

  • احتمال إعادة توزيع العقود الحكومية على منافسين أكثر مرونة.
  • تزايد الضغوط داخل الشركات التقنية حول سياسات الاستخدام العسكري.
  • تعميق النقاش العام حول حوكمة النماذج المتقدمة.

وفي الوقت نفسه، وقّعت وزارة الدفاع اتفاقاً سريعاً مع أوبن إيه آي بعد تصنيف أنثروبيك مباشرة، ما أثار تساؤلات داخل الصناعة حول عدالة المنافسة وحياد القرارات التنظيمية.


سابقة قد تعيد رسم الحدود

ذو صلة

ما يجري ليس مجرد نزاع قانوني، بل لحظة مفصلية في علاقة الدولة بشركات الذكاء الاصطناعي. إذا اعتبرت المحاكم أن الحكومة تجاوزت صلاحياتها، فقد يُرسخ ذلك حق الشركات في فرض قيود أخلاقية على استخدام تقنياتها. أما إذا صُدّق القرار، فقد تجد شركات أخرى نفسها أمام خيار صعب بين العقود السيادية ومبادئها المعلنة.

في النهاية، يتضح أن سباق الذكاء الاصطناعي لا يدور فقط حول من يملك النموذج الأقوى، بل حول من يضع القواعد. وبينما تتسارع قدرات النماذج التوليدية، يبدو أن اختبار النضج الحقيقي للصناعة سيقاس بقدرتها على التوازن بين القوة والمسؤولية.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة