أداة جديدة من أنثروبيك لمراجعة الكود الذي يكتبه الذكاء الاصطناعي بسرعة قياسية
مع انتشار أدوات الذكاء الاصطناعي، زادت الإنتاجية وطوفان طلبات المراجعة البرمجية.
يواجه المطورون تحديًا في جودة الكود الناتج عن "البرمجة بالوصف".
أطلقت Anthropic أداة Code Review لمنع تسرب الأخطاء المنطقية في البرمجة.
تستخدم الأداة نهج متعدد الوكلاء لتوفير تحليل عميق للشفرة البرمجية.
تهدف الأداة إلى تلبية احتياجات الشركات الكبرى في السوق البرمجية.
قبل سنوات، كان طلب مراجعة الكود يعني انتظار زميل أكثر خبرة ليقرأ سطورك بعين ناقدة، بحثاً عن خطأ منطقي صغير قد يتحول لاحقاً إلى عطل مكلف. اليوم، ومع الطفرة في أدوات الذكاء الاصطناعي القادرة على توليد كتل كاملة من الشيفرة خلال دقائق، تغيّر المشهد: الإنتاجية ارتفعت، لكن طوفان طلبات المراجعة ارتفع معها. في هذا السياق، أطلقت Anthropic أداة Code Review داخل Claude Code، محاولةً ضبط جودة الكود الذي بات يُكتب باندفاع آلي غير مسبوق.
حين يتجاوز الإنتاج قدرة المراجعة
الاعتماد المتزايد على ما يُعرف بـ “البرمجة بالوصف” أو Vibe Coding، حيث يصف المطور ما يريد بلغة طبيعية فتتولى الأداة توليد الشيفرة، رفع حجم المخرجات البرمجية بشكل ملحوظ. لكن كل سطر جديد يحتاج إلى تدقيق، وكل طلب دمج Pull Request يمر عبر دورة مراجعة قبل أن يصبح جزءاً من المنتج.
بحسب تصريحات مسؤولي الشركة، استخدام Claude Code داخل الشركات الكبرى أدى إلى تضخم عدد طلبات الدمج، ما خلق عنق زجاجة في فرق الهندسة. Code Review يأتي هنا كطبقة تدقيق آلي تحاول منع تسرب الأخطاء المنطقية قبل استهلاك وقت الفرق البشرية.
مراجعة منطقية لا تجميلية
ما يميز الأداة الجديدة أنها تركز على الأخطاء المنطقية بدلاً من ملاحظات الأسلوب أو التنسيق. الكثير من المطورين ضاقوا ذرعاً بأدوات تكرر اقتراحات شكلية لا تغير جوهر التنفيذ. لذلك اختارت Anthropic التقليل من “الضجيج” والتركيز على ما قد يكسر التطبيق فعلياً أو يسبب سلوكاً غير متوقع.
النظام يشرح منطقه خطوة بخطوة: يحدد موضع الخلل، يفسّر سبب اعتباره مشكلة، ثم يقترح معالجة محتملة. كما يستخدم ترميزاً لونياً لتمييز درجة الخطورة، ما يسهل على قائد الفريق ترتيب الأولويات بسرعة داخل مستودعات GitHub.
بنية متعددة الوكلاء لتحليل أعمق
تقنياً، تعتمد Code Review على معمارية متعددة الوكلاء، حيث يعمل أكثر من نموذج فرعي بالتوازي لتحليل الكود من زوايا مختلفة: منطق التنفيذ، الترابط بين الملفات، الأنماط المتكررة، وحتى التاريخ السابق للأخطاء. في النهاية، يقوم وكيل مركزي بتجميع النتائج وترتيبها وإزالة التكرار.
هذا الأسلوب يمنح التحليل عمقاً أكبر، لكنه يعني أيضاً استهلاكاً أعلى للموارد. الخدمة تُسعّر بناءً على عدد الرموز Tokens وتعقيد الشيفرة، مع تقدير يتراوح بين 15 و25 دولاراً لكل مراجعة في المتوسط، ما يضعها في فئة الأدوات المؤسسية الموجهة للشركات واسعة النطاق.
الرهان على الشركات الكبرى
تطرح Anthropic الأداة حالياً ضمن باقات Claude for Teams وClaude for Enterprise، في إشارة واضحة إلى أن الهدف هو العملاء المؤسسيين مثل شركات البرمجيات الكبرى والاستشارات التقنية. فكلما زاد الاعتماد على الذكاء الاصطناعي في توليد الشيفرة، ازدادت الحاجة إلى طبقة تحقق آلية قادرة على مواكبة السرعة.
تأتي هذه الخطوة في وقت حساس للشركة، التي تخوض نزاعاً قانونياً مع وزارة الدفاع الأميركية، ما يجعل تنمية قطاع الاشتراكات المؤسسية أمراً استراتيجياً. ووفق الأرقام المعلنة، تجاوزت إيرادات Claude Code السنوية المحسوبة مليارات الدولارات، ما يعكس الطلب القوي على أدوات تطوير مدعومة بالذكاء الاصطناعي.
الجودة كخط دفاع أول
مع تضخم الاعتماد على النماذج اللغوية الكبيرة في كتابة الشيفرة، لم يعد السؤال هل يمكن للذكاء الاصطناعي أن يبرمج، بل كيف نضمن أن ما يكتبه آمن ومستقر وقابل للصيانة. أدوات المراجعة الآلية تمثل طبقة حوكمة جديدة في دورة حياة التطوير، تجمع بين الأتمتة والتحليل السياقي.
قد لا تُغني هذه الطبقة عن الخبرة البشرية، لكنها تعيد تعريف دور المراجعة: من تدقيق روتيني للسطر، إلى إشراف استراتيجي على منطق النظام ككل. وبين سرعة التوليد ودقة التحقق، يتشكل توازن جديد يحدد شكل هندسة البرمجيات في السنوات المقبلة.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26









