LEAP26

موجة غضب بين موظفي غوغل تطالب بوقف استخدام الذكاء الاصطناعي في الأغراض العسكرية السرية

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

مهندسو غوغل وقعوا عريضة ضد استخدام تقنيات الذكاء الاصطناعي في مشروعات سرية عسكرية.

يخشون استخداماتهم في أسلحة ذاتية أو مراقبة تمس الحريات الفردية.

أثارت العريضة نقاشًا أخلاقيًا مشابهًا لما حدث في مشروع Project Maven عام 2018.

تواجه شركات الذكاء الاصطناعي تحولات ثقافية وضغوطًا لضمان الشفافية والحوكمة الأخلاقية.

حين يختار مهندس يعمل على خوارزميات الذكاء الاصطناعي أن يوقّع عريضة ضد مشروع داخل شركته، فالأمر يتجاوز خلافاً إدارياً عابراً. نحن أمام سؤال عميق يتعلق بحدود التقنية حين تقترب من الاستخدامات العسكرية المغلقة، حيث لا يرى المطوّر كيف تُستخدم أدواته فعلياً.

هذا تماماً ما يحدث داخل غوغل، إذ وقّع عدد من موظفي الشركة، بينهم أسماء بارزة من مختبر DeepMind، عريضة موجهة إلى الرئيس التنفيذي سوندار بيتشاي، يطالبون فيها بعدم الدخول في عقود مع وزارة الدفاع الأميركية تتضمن استخداماً سرياً أو مصنّفاً لتقنيات الذكاء الاصطناعي الخاصة بالشركة، بحسب تقرير نشرته The Washington Post.


حين يغيب الإشراف تحضر المخاوف

جوهر الاعتراض لا يتعلق فقط بالتعاون مع جهة عسكرية، بل بطبيعة العمل المصنّف نفسها. فالمشروعات السرية تعني قيوداً على الشفافية، وحدوداً على قدرة المطورين في فهم السياق النهائي الذي تُستخدم فيه نماذجهم وخوارزمياتهم.

الموظفون حذروا من أن غياب الرؤية الكاملة قد يجعل من المستحيل ضمان عدم إساءة استخدام أدواتهم في ممارسات تمس الحريات الفردية أو تتسبب بأذى مباشر. وفي عالم الذكاء الاصطناعي، حيث يمكن لنموذج واحد أن يُعاد توظيفه في تحليل صور، أو مراقبة بيانات، أو دعم أنظمة قتالية ذاتية، يصبح سؤال الاستخدام أكثر حساسية من سؤال التطوير نفسه.


ذاكرة Project Maven لم تُمحَ

هذه ليست المرة الأولى التي تواجه فيها غوغل انقساماً داخلياً حول تعاونها مع البنتاغون. ففي عام 2018، أثار مشروع Project Maven موجة احتجاج واسعة بين الموظفين بعدما ساعدت الشركة في تطوير أدوات للتعرف إلى الأجسام في لقطات الطائرات المسيّرة.

آنذاك، وقّع آلاف العاملين عريضة مشابهة، ما دفع الشركة في النهاية إلى عدم تجديد العقد. استعادة هذا الحدث اليوم تعكس أن النقاش الأخلاقي حول الذكاء الاصطناعي العسكري لم يُحسم داخل وادي السيليكون، بل ربما ازداد تعقيداً مع تطور قدرات النماذج التوليدية وأنظمة التعلم العميق.


الذكاء الاصطناعي بين الخدمة والضرر

في نص العريضة، أشار الموظفون إلى مخاوف تتجاوز الأسلحة ذاتية التشغيل لتشمل المراقبة واسعة النطاق واستخدامات أخرى قد تُصنّف على أنها غير إنسانية أو عالية الخطورة. هنا يظهر الصدام بين رؤيتين: الأولى ترى في الذكاء الاصطناعي أداة لتعزيز الكفاءة والأمن القومي، والثانية تخشى انزلاقه نحو أتمتة قرارات مصيرية دون مساءلة كافية.

التعقيد الحقيقي يكمن في أن النماذج اللغوية وأنظمة الرؤية الحاسوبية لا تحمل نوايا بحد ذاتها. لكنها أيضاً ليست محايدة بالكامل، إذ تعتمد على البيانات وسيناريوهات النشر والبنية المؤسسية التي تحيط بها. عندما يصبح النشر مصنفاً وسرياً، تتآكل إحدى أهم طبقات الحوكمة: التدقيق المجتمعي.


سؤال أوسع يتجاوز غوغل

اللافت أن شركة Anthropic المنافسة واجهت موقفاً مشابهاً مؤخراً، حيث تم استبعادها من تعاون مع وزارة الدفاع بعد طلبها تقييد الاستخدامات المصنّفة لتقنياتها. هذا يشير إلى أن المسألة لم تعد حالة معزولة، بل جزء من إعادة رسم العلاقة بين شركات الذكاء الاصطناعي والمؤسسات العسكرية.

  • تصاعد حساسية الموظفين تجاه أخلاقيات الاستخدام النهائي.
  • تزايد ضغط الرأي العام حول الشفافية والحوكمة.
  • رهان الحكومات على تقنيات تعلم الآلة لتعزيز قدراتها الدفاعية.

إلى أين يتجه وادي السيليكون؟

ذو صلة

غوغل لم تعلّق بعد رسمياً على العريضة، لكن النقاش الدائر داخل أروقتها يعكس تحوّلاً ثقافياً في الشركات التقنية الكبرى. المطوّر لم يعد مجرد منفّذ تقني، بل فاعل أخلاقي يسعى لمعرفة أثر شيفرته خارج المختبر.

في النهاية، لا يدور الجدل حول التعاون مع جهة بعينها بقدر ما يتمحور حول حدود المسؤولية في عصر الذكاء الاصطناعي. فكلما ازدادت قدرة النماذج على التأثير في الواقع المادي، ازداد ثقل السؤال القديم: من يملك القرار النهائي، ومن يتحمل تبعاته؟

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة