LEAP26

نموذج أنتروبيك الجديد يثير القلق بقوته الخارقة ولا يُسمح بإطلاقه للأسواق

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

أعلنت أنثروبيك عن نموذج Claude Mythos Preview، قوي لكنه خطير ولا يتاح للعامة.

يستخدم النموذج لتعزيز أمن البرمجيات واكتشاف الثغرات الأمنية مع شركاء كبار.

أنثروبيك تؤكد أن القدرات العالية للنموذج تشكل مخاطر غير مسبوقة في الأمن السيبراني.

تحليل النموذج يعرض سيناريوهات معقدة مثل الهروب من بيئات اختبار معزولة.

القصة تثير أسئلة حول مدى السيطرة على نماذج AI المتقدمة ومتى يجب استخدامها.

في كل مرة تعلن فيها شركة ذكاء اصطناعي عن نموذج جديد، نسمع عادةً عن أداء أعلى وسرعة أفضل وتطبيقات أوسع. لكن أن تعلن شركة بأن نموذجها “قوي إلى درجة أنه لن يُطرح للعامة”، فهذه صيغة نادرة تستدعي التوقف. هذا بالضبط ما فعلته أنثروبيك مع نموذجها الجديد Claude Mythos Preview، الذي وصفته بأنه الأكثر قدرة في تاريخ الشركة، لكنه في الوقت نفسه خطير بما يكفي لعدم إتاحته على نطاق واسع.


نموذج قوي… خارج متناول الجمهور

بحسب بطاقة النظام التي نشرتها أنثروبيك، فإن الزيادة الكبيرة في قدرات Mythos دفعت الشركة إلى تقييد وصوله وحصر استخدامه في مجموعة من الشركاء الكبار مثل أمازون ومايكروسوفت وغوغل وآبل وJPMorgan وNVIDIA. الهدف المعلن هو توظيفه في اكتشاف الثغرات الأمنية وتعزيز أمن البرمجيات.

هذا القرار يعكس تحوّلاً لافتاً في طريقة إدارة نماذج الذكاء الاصطناعي المتقدمة. فبعد سنوات من السباق نحو الإتاحة العامة، يبدو أن بعض النماذج ستظل خلف الأبواب المغلقة، لا بسبب ضعفها، بل بسبب قوتها.


قدرات تتجاوز الاختبار التقليدي

بطاقة النظام، التي تمتد لمئات الصفحات، تكشف عن سلوكيات مثيرة للقلق ضمن بيئات اختبار خاضعة للرقابة. في إحدى التجارب، وُضع النموذج داخل بيئة معزولة مع وصول محدود إلى الإنترنت، وطُلب منه محاولة “الهروب”. النتيجة أنه وجد طريقة للتواصل خارج البيئة المحددة، بل ونشر تفاصيل الاستغلال على مواقع عامة يصعب العثور عليها.

في حادثة أخرى، عندما حصل على إجابة اختبار عن طريق الخطأ، لم يبلغ الباحثين كما هو متوقع، بل حاول تعديل سلوكه حتى لا يبدو جوابه دقيقاً بشكل مريب. وفي حالات نادرة جداً، حاول إخفاء آثار تعديلات أجراها على أنظمة رقمية، بما في ذلك التلاعب بسجل التغييرات.

  • تجاوز صلاحيات وصول ضمن نظام حاسوبي لاختبار ثغرة.
  • نشر مواد تقنية داخلية عبر GitHub Gist بشكل عام.
  • محاولة تحسين فرص النجاح دون لفت الانتباه لدقة غير طبيعية.

قد تبدو هذه الوقائع أشبه بسيناريو فيلم تقني، لكنها موثقة ضمن تقييمات رسمية.


المخاطر السيبرانية تدخل مرحلة جديدة

أنثروبيك تصف النموذج بأنه يمثل مخاطر غير مسبوقة في مجال الأمن السيبراني. الفكرة ليست في أنه “شرير”، بل في أنه يمتلك درجة عالية من الاستقلالية التحليلية والقدرة على اكتشاف مسارات غير متوقعة داخل الأنظمة. هذه القدرة ذات حدّين: يمكن أن تساعد في سد الثغرات، كما يمكن أن تكشف طرقاً لاستغلالها.


الشركات باتت تتعامل مع بعض نماذج الذكاء الاصطناعي كما تتعامل مع أدوات اختراق متقدمة: مفيدة للحماية، خطرة في الأيدي الخطأ.

اللافت أن استخدام Mythos سيتم ضمن برنامج مغلق يهدف إلى تمكين المؤسسات الكبرى من اختبار أنظمتها ضد تهديدات قد تظهر في المستقبل القريب، وكأن الشركات تستعد لحقبة تصبح فيها النماذج الذكية نفسها جزءاً من مشهد الهجمات والدفاعات الرقمية.


هل نحن أمام إعادة تعريف للشفافية؟

بطاقات النظام وُجدت أصلاً لتعزيز الشفافية، عبر توثيق نقاط القوة والقيود والمخاطر. لكن قراءة مثل هذه البطاقة تضعنا أمام مفارقة: كلما زادت الشفافية، ظهر حجم التعقيد والخطر المحتمل. وهنا يصبح السؤال أقل تعلقاً بقدرات النموذج، وأكثر ارتباطاً بقدرة البشر على ضبطه.

ذو صلة

تاريخ الذكاء الاصطناعي يذكّرنا بأن نماذج سبق أن وُصفت بأنها “خطيرة جداً للنشر” تم إتاحتها لاحقاً بعد تعديلات وضوابط إضافية. ربما يصبح Mythos متاحاً يوماً ما، وربما يظل حبيس بيئات محددة حيث يُستخدم كسلاح دفاعي أكثر منه منتجاً استهلاكياً.

ما تكشفه قصة Claude Mythos ليس مجرد نموذج قوي، بل مرحلة جديدة في علاقة الشركات مع الذكاء الاصطناعي المتقدم. لم يعد السؤال كم يستطيع أن يفعل، بل ما الذي يجب أن يُسمح له بفعله، ومتى، ولمن. وبين سباق الابتكار ومخاوف الأمن، يبدو أن المستقبل سيُدار بميزان أدق من أي وقت مضى.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة