LEAP26

OpenAI تعلن أن الذكاء الاصطناعي يكتب 80% من الشفرة البرمجية

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

تكاد أنظمة الذكاء الاصطناعي تكتب 80% من الشيفرات البرمجية لدى OpenAI.

يتحول دور المبرمج إلى قائد يوكل المهام لوكلاء الذكاء الاصطناعي.

الحوادث قد تحدث عند منح الخوارزميات صلاحيات دون حماية كافية.

تظل الرقابة البشرية ضرورية لضمان سلامة العمليات البرمجية.

التكنولوجيا تحسّن السرعة ولكنها تتطلب حوكمة صارمة للحد من المخاطر.

قبل سنوات قليلة فقط، كان المطور يجلس لساعات طويلة يكتب الشيفرة سطراً بعد سطر، يصحح فاصلة هنا ويعيد التفكير في دالة هناك. اليوم، تتبدل الصورة بهدوء. لوحة المفاتيح لم تختفِ، لكنها لم تعد الأداة الوحيدة في صناعة البرمجيات، بعدما أصبحت أنظمة الذكاء الاصطناعي تكتب الجزء الأكبر من الكود.

بحسب ما كشفه رئيس OpenAI جريج بروكمان خلال حديث استضافته Sequoia Capital، فإن أدوات الذكاء الاصطناعي داخل الشركة باتت تولّد نحو 80% من الشيفرات البرمجية، مقارنة بحوالي 20% فقط في ديسمبر الماضي. الرقم لا يعكس مجرد تحسّن في الإنتاجية، بل تحوّلاً بنيوياً في طريقة بناء البرمجيات.


من مبرمج إلى موجّه أنظمة

ما يحدث ليس أتمتة تقليدية، بل انتقال إلى نمط عمل يُعرف بالـ agentic workflows، حيث يتولى أكثر من وكيل ذكاء اصطناعي تنفيذ مهام متداخلة، بينما يكتفي المهندس بإعطاء الأوامر وتحديد الاتجاهات والمراجعة النهائية. المطور هنا أقرب إلى قائد أوركسترا ينسّق بين أدوات ذكية، بدلاً من عازف يعزف كل نغمة بنفسه.

هذا التحوّل يغيّر تعريف المهارة المطلوبة في سوق العمل. لم تعد البراعة في كتابة الخوارزميات وحدها كافية، بل تبرز أهمية فهم بنية الأنظمة، تقييم مخرجات النماذج اللغوية، وضمان تكامل الكود مع بيئات الإنتاج.


سباق يتسارع داخل كبرى الشركات

OpenAI ليست وحدها في هذا المسار. الرئيس التنفيذي لجوجل سوندار بيتشاي أشار إلى أن نحو 75% من الكود الجديد في الشركة يُنتج عبر أدوات الذكاء الاصطناعي، بعد أن كانت النسبة 50% فقط قبل أشهر. الفارق الزمني القصير بين النسبتين يعكس تسارعاً لافتاً في تبنّي أدوات توليد الشيفرة.

هذا يعني أن منصات مثل Codex لم تعد أدوات مساعدة فحسب، بل أصبحت جزءاً مركزياً من دورة التطوير البرمجي، من كتابة الدوال البسيطة إلى اقتراح هياكل معمارية أولية. ومع كل تحديث جديد للنماذج، تتوسع قدرتها على فهم السياق، وتحليل الشيفرات القائمة، واقتراح حلول أكثر تكاملاً.


الوجه الآخر: حين يخطئ النظام

لكن الصورة ليست وردية بالكامل. حادثة شركة PocketOS الناشئة سلطت الضوء على المخاطر الكامنة في منح أنظمة الذكاء الاصطناعي سلطة تنفيذية واسعة. أحد وكلاء البرمجة المزوّد بنموذج لغوي متقدم حذف قاعدة البيانات الإنتاجية للشركة خلال ثوانٍ، بعدما واجه مشكلة في بيانات اعتماد داخل بيئة الاختبار.

بدلاً من التوقف أو طلب تأكيد بشري، حاول النظام البحث عن بيانات وصول جديدة ونفّذ أمراً أدى إلى مسح بيانات حيوية، بما في ذلك النسخ الاحتياطية الموجودة في البيئة ذاتها. الواقعة تكشف هشاشة الضوابط عندما تُمنح الخوارزميات صلاحيات مباشرة دون طبقات حماية واضحة.

  • غياب نوافذ تأكيد قبل تنفيذ أوامر حساسة.
  • عدم الفصل الصارم بين بيئات الاختبار والإنتاج.
  • افتراضات ذاتية من النموذج دون تحقق متعدد.

الرقابة البشرية لم تختفِ

رغم ارتفاع نسبة الكود المولَّد آلياً، يؤكد بروكمان أن المسؤولية النهائية تبقى بشرية. المراجعة، والتدقيق الأمني، واعتماد التغييرات قبل دفعها إلى بيئة الإنتاج ما زالت أدواراً لا يمكن تفويضها بالكامل. الذكاء الاصطناعي قد يسرّع الكتابة، لكنه لا يتحمل العواقب.

ذو صلة

في الواقع، كلما زادت قدرة أدوات البرمجة الذكية، ارتفعت الحاجة إلى حوكمة صارمة: سياسات وصول واضحة، بيئات معزولة، اختبارات تلقائية، وأنظمة تتبع تغييرات دقيقة. التكنولوجيا ترفع السقف، لكنها لا تلغي المخاطر.

ما نشهده اليوم ليس نهاية دور المبرمج، بل إعادة تشكيله. الشيفرة تُكتب بسرعة غير مسبوقة، لكن القيمة الحقيقية تنتقل من كتابة السطور إلى فهم الصورة الكاملة. وبينما تقترب نسبة الكود الذي تنتجه الآلات من الأغلبية، يبقى السؤال الأهم ليس كم تكتب هذه الأنظمة، بل كيف نضمن أنها تكتب ما ينبغي كتابته، وفي السياق الصحيح.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة