جدل واسع بعد اتهام داريو أمودي لـ OpenAI بتضليل الرأي العام حول صفقتها العسكرية
الخوارزميات تتداخل مع السياسة وتحولت صفقات الذكاء الاصطناعي لاختبارات علنية للقيم.
شركة أنثروبيك رفضت استخدام تقنياتها للمراقبة أو الأسلحة مقابل اتفاق جديد مع الدفاع.
تواجه OpenAI انتقادات بسبب مرونتها في الاتفاقيات القانونية مما يثير مخاوف أخلاقية.
الجدل أثر على ثقة المستخدمين وارتفعت عمليات حذف تطبيقات الذكاء الاصطناعي.
الذكاء الاصطناعي أصبح بنية تحتية استراتيجية ويتداخل مع الأمن القومي والمصالح التجارية.
في عالم تتداخل فيه الخوارزميات مع السياسة، لم تعد صفقات الذكاء الاصطناعي مجرد اتفاقيات تجارية، بل تحولت إلى اختبارات علنية للقيم التي تدّعي الشركات تبنيها. هذا ما كشفه السجال الأخير بين أنثروبيك وOpenAI بعد إعلان صفقة الأخيرة مع وزارة الدفاع الأمريكية، وهي خطوة أشعلت خلافاً لم يعد تقنياً فحسب، بل أخلاقياً أيضاً.
من يضع الخطوط الحمراء؟
القصة بدأت عندما فشلت أنثروبيك في التوصل إلى اتفاق جديد مع وزارة الدفاع بسبب إصرارها على تضمين بنود واضحة تمنع استخدام نماذجها في المراقبة الداخلية واسعة النطاق أو في أنظمة الأسلحة الذاتية. الشركة، التي كانت تمتلك بالفعل عقداً سابقاً بقيمة 200 مليون دولار، رفضت منح وصول غير مشروط لتقنياتها تحت بند "أي استخدام قانوني".
بعد أيام، أعلنت OpenAI عن توقيعها اتفاقاً مع الجهة نفسها، مؤكدة وجود ضمانات تقنية تمنع تجاوز خطوط مشابهة. لكن الرئيس التنفيذي لأنثروبيك، داريو أمودي، وصف رسائل OpenAI الداخلية بأنها "أكاذيب صريحة"، معتبراً أن قبول هذا الإطار القانوني الفضفاض يفتح الباب أمام تغيّرات مستقبلية قد تعيد تعريف ما هو "قانوني".
القانون يتغير… والنماذج تبقى
هنا تكمن عقدة الجدل. عبارة "لأغراض قانونية" تبدو مطمئنة على السطح، لكنها رهينة السياق السياسي والتشريعي. ما يُحظر اليوم قد يصبح مشروعاً غداً بقرار إداري أو تعديل قانوني. في بيئة يتسارع فيها تطوير النماذج اللغوية الكبرى وأنظمة الذكاء الاصطناعي التوليدي، يصبح الالتزام الأخلاقي المستند إلى نص قانوني فقط موضع تساؤل.
أنثروبيك اختارت التمسك بضوابط مقيّدة حتى لو كلفها ذلك خسارة عقد حكومي ضخم. في المقابل، ترى OpenAI أن حماية الاستخدام تمر عبر تضمين ضمانات تقنية ورقابية داخل العقد نفسه. المفارقة أن الطرفين يتحدثان بلغة "السلامة"، لكن بتعريفين مختلفين للمخاطر.
أثر الخلاف على ثقة المستخدمين
الأثر لم يبق في الغرف المُغلقة. بعد إعلان الصفقة، ارتفعت عمليات حذف تطبيق ChatGPT بنسبة 295% خلال أيام وفق تقارير TechCrunch، بينما صعد تطبيق Claude إلى مرتبة متقدمة في متجر التطبيقات الأمريكي. قد لا تعكس هذه الأرقام تحوّلاً طويل المدى، لكنها تشير إلى حساسية المستخدمين تجاه العلاقة بين أدواتهم الرقمية والمؤسسات العسكرية.
- الذكاء الاصطناعي لم يعد يُقيَّم فقط بجودته، بل بسياق استخدامه.
- الثقة أصبحت عاملاً تنافسياً لا يقل أهمية عن الأداء.
- سمعة الشركة قد تؤثر مباشرة على معدلات التبني أو الهجرة الجماعية.
صراع سرديات داخل وادي السيليكون
اللافت أن الخلاف لم يقتصر على البيانات الرسمية. مذكرة أمودي الداخلية، التي نقلتها The Information، حملت نبرة حادة تجاه سام ألتمان، متهمة إياه بمحاولة تقديم نفسه كصانع سلام. هذا يكشف أن المنافسة بين شركات الذكاء الاصطناعي لم تعد سباق نماذج وأداء فحسب، بل أيضاً سباق سرديات حول من يمثل "الضمير" في الصناعة.
وفي خلفية المشهد، شركات مثل إنفيديا تعيد حساباتها الاستثمارية، بينما تتزايد تدخلات حكومية تتراوح بين الشراكة والقيود التنظيمية. كل ذلك يحدث فيما لا يزال الإطار القانوني العالمي للذكاء الاصطناعي في طور التشكل.
ذكاء اصطناعي بوجه سياسي
ربما تكشف هذه الحادثة عن تحوّل أعمق: الذكاء الاصطناعي بات بنية تحتية استراتيجية، تماماً كالمعادن النادرة أو شبكات الاتصالات. وعندما تصبح النماذج اللغوية أداة محتملة في الأمن القومي، تختلط الاعتبارات التجارية بالأمنية، وتصبح كل صفقة بياناً سياسياً بحد ذاته.
في النهاية، لا يتعلق الأمر بمن فاز بعقد، بل بكيفية تعريف الصناعة لمسؤوليتها في لحظة تتسع فيها قدرة الخوارزميات على التأثير. بين نص قانوني مرن وخط أحمر ثابت، يتشكل مستقبل العلاقة بين الذكاء الاصطناعي والسلطة — مستقبل لن تحدده الشركات وحدها، بل أيضاً ثقة المستخدمين وحدود التشريع.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








