قوائم أراجيك

رسالة استقالة من خبير أمان الذكاء الاصطناعي تكشف عن خطر يهدد العالم

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

أعلن مرينانك شارما مغادرته فريق أبحاث الضوابط الوقائية في Anthropic.

أعرب شارما عن قلقه من تأثير الذكاء الاصطناعي على الأمان والبشرية.

تشير استقالته إلى الصراع بين القيم الأخلاقية وضغوط السوق في مجال التقنية.

شهدت Anthropic استقالات عديدة، رغم توسعها السريع وإطلاق إصدارات جديدة.

يعكس قرار شارما البحث عن الإنسانية ضغوط الصناعة.

في بعض اللحظات، لا يكون قرار الاستقالة مسألة مهنية بحتة، بل تعبيرًا عن صراع داخلي عميق. حين يغادر باحث أمانٍ في الذكاء الاصطناعي شركته، لا يغادر فقط وظيفة أو منصبًا، بل يترك خلفه أسئلة ثقيلة حول مستقبل التقنية وحدود المسؤولية الإنسانية. هذا ما كشفته رسالة الاستقالة التي نشرها أحد قادة أمان الذكاء الاصطناعي في شركة Anthropic، محذرًا من عالم يقترب، في نظره، من حافة الخطر.


استقالة من قلب أبحاث أمان الذكاء الاصطناعي

مِرِينانك شارما، الذي قاد فريق أبحاث الضوابط الوقائية في Anthropic، أعلن مغادرته الشركة عبر رسالة داخلية نُشرت لاحقًا، أوضح فيها أنه غادر بعدما حقق ما كان يسعى إليه مهنيًا. من تطوير آليات للحد من مخاطر الاستخدام الحيوي الخطر للذكاء الاصطناعي، وصولًا إلى مشروع أخير يدرس التأثير الوجودي الطويل المدى لهذه النماذج على البشرية.

لكن السبب الأعمق، كما جاء في الرسالة، لم يكن تقنيًا بحتًا. شارما تحدث عن شعور دائم بالثقل، نابع من التعامل المستمر مع سيناريوهات الانهيار، والأسلحة البيولوجية، والأزمات المتداخلة التي قد يسرّع الذكاء الاصطناعي وتيرتها بدل احتوائها.


حين تتجاوز القدرة التقنية حكمة البشر

العبارة الأكثر لفتًا في رسالة شارما كانت تحذيره من فجوة متسعة بين قدرة الإنسان على التأثير في العالم، ومدى حكمته في استخدام هذه القدرة. فمع تطور نماذج الذكاء الاصطناعي وتوسع نطاق استخدامها، تصبح قرارات بضعة فرق بحثية أو شركات خاصة ذات أثر عالمي، يمتد إلى الأمن، والصحة، والسياسة، وحتى المعنى الإنساني للعمل والمعرفة.


ثقافة القيم تحت ضغط السوق

ما بين سطور الرسالة، يظهر توتر مألوف في صناعة التقنية: الصراع بين المبادئ الأخلاقية وضغوط المنافسة والتمويل. شارما أشار بصراحة إلى صعوبة الالتزام بالقيم، ليس فقط على مستوى المؤسسات، بل داخل الفرد نفسه. ففي بيئة تتسارع فيها الإصدارات وتحتدم فيها المنافسة بين مختبرات الذكاء الاصطناعي، تصبح القرارات الأخلاقية أبطأ من السوق، وأثقل من أن تتحملها جداول الإطلاق.


Anthropic بين المغادرين والتوسع

استقالة شارما ليست حالة معزولة. خلال الأسابيع نفسها، أعلن باحثون بارزون آخرون في Anthropic مغادرتهم لبدء مشاريع جديدة، في وقت تواصل فيه الشركة التوسع بوتيرة سريعة. فقد أطلقت مؤخرًا إصدار Claude Opus 4.6 بقدرات محسنة في البرمجة وتحليل المستندات، وتخوض في الوقت ذاته مفاوضات تمويل قد ترفع تقييمها إلى أرقام غير مسبوقة في تاريخ شركات الذكاء الاصطناعي.


حين يتحول الانسحاب إلى موقف أخلاقي

ذو صلة

اختيار شارما للمرحلة المقبلة يبدو لافتًا بحد ذاته. الحديث عن دراسة الشعر، والتفرغ لما سماه شجاعة الكلمة، يوحي برغبة في استعادة إنسانية فقدت بعض توازنها وسط النماذج والخوارزميات. في سياق صناعة يُقاس فيها النجاح بعدد المعاملات والبارامترات، يصبح الانسحاب فعلًا احتجاجيًا هادئًا، يذكّر بأن الذكاء ليس حسابيًا فقط.

رسالة الخروج هذه تفتح نافذة على نقاش أوسع: ليس حول مستقبل Anthropic وحدها، بل حول مستقبل الذكاء الاصطناعي نفسه. فحين يشعر من يقفون في الصفوف الأولى للأمان أن العبء أصبح أثقل من أن يُحتمل، فإن السؤال لم يعد تقنيًا، بل حضاريًا، حول الطريق الذي نمضي فيه، ومن يقوده.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة