LEAP26

البيت الأبيض يفكر في إخضاع نماذج الذكاء الاصطناعي لمراقبة دقيقة

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

أُقترحت مراجعة حكومية لنماذج الذكاء الاصطناعي المتقدمة قبل إطلاقها.

نموذج Mythos اكتشف ثغرات أمنية واسعة في المواقع الحساسة بسرعة.

يحاكي التحول النموذج البريطاني لفرض تدقيق مسبق على الذكاء الاصطناعي.

إطلاق النموذج يتطلب موازنة بين الابتكار والأمن السيبراني.

الذكاء الاصطناعي أصبح أداة أساسية في البنية التحتية الرقمية والأمن.

حين تُطلِق شركة ذكاء اصطناعي نموذجاً جديداً، يتعامل كثيرون معه كخطوة تقنية أخرى في سباق الابتكار. لكن ماذا لو كان هذا النموذج قادراً على اكتشاف ثغرات أمنية في معظم مواقع الويب؟ هنا يتغير المشهد تماماً. هذا بالضبط ما دفع البيت الأبيض، بحسب تقارير حديثة، إلى دراسة فكرة إخضاع نماذج الذكاء الاصطناعي المتقدمة لمراجعة حكومية قبل إطلاقها للعامة.


من حرية الابتكار إلى هاجس الأمن

إدارة ترامب عُرفت بسياسة عدم التدخل في تنظيم تقنيات الذكاء الاصطناعي، مفضّلة ترك السوق يقود الابتكار. لكن ظهور نظام Mythos من شركة Anthropic، القادر على اكتشاف ثغرات أمنية واسعة النطاق، وضع هذا التوجه أمام اختبار حقيقي. فحين تصبح النماذج قادرة على تحليل البنية الأمنية لمواقع البنوك والخدمات الحساسة خلال وقت قصير، فإن المسألة لم تعد مجرد تفوق تقني، بل خطر سيبراني محتمل.

الاتحاد الأوروبي تواصل مع الشركة لاختبار أنظمته المصرفية عبر النموذج، في إشارة واضحة إلى إدراك رسمي مبكر لما يمكن أن تفعله هذه الأدوات. المشكلة ليست في الاستخدام المسؤول، بل في احتمالية أن تصل القدرات نفسها إلى جهات أقل التزاماً.


نموذج بريطاني بنكهة أمريكية

الخطة المطروحة تستلهم التجربة البريطانية، حيث تُراجع الجهات الرسمية بعض النماذج المتقدمة قبل إتاحتها. الفكرة هنا ليست حظر التطوير، بل فرض طبقة تدقيق مسبق لضمان الالتزام بمعايير السلامة. أشبه باختبار تحمّل رقمي قبل إدخال منتج جديد إلى السوق.

هذه المقاربة تعكس تحولاً في فهم الذكاء الاصطناعي من كونه برمجية ذكية إلى بنية تحتية حرجة، قد تؤثر في الأمن القومي، والقطاع المالي، وحتى استقرار البنية الرقمية للدول.


المعضلة الأخلاقية والتنافسية

إخضاع النماذج لمراجعة حكومية يطرح أسئلة معقدة تتعلق بالشفافية وحقوق الملكية الفكرية وسرعة الابتكار. شركات التكنولوجيا تخشى أن يؤدي أي تأخير تنظيمي إلى إبطاء تنافسيتها، خصوصاً في سباق عالمي تحتدم فيه المنافسة بين الولايات المتحدة والصين.

لكن في المقابل، فإن إطلاق نموذج قادر على أتمتة اكتشاف الثغرات أو محاكاة الهجمات السيبرانية قد يغيّر ميزان القوى بين المدافعين والمهاجمين في الأمن الرقمي. وهنا يصبح الحديث عن الضوابط أقرب إلى نقاش حول السلامة العامة منه إلى قيود بيروقراطية.


الذكاء الاصطناعي كسلاح مزدوج الاستخدام

الأنظمة المتقدمة اليوم قادرة على أدوار لم تكن متوقعة قبل سنوات قليلة: تحليل شيفرات، توليد استراتيجيات اختراق، أو اكتشاف نقاط ضعف معقدة في البنية التحتية الرقمية. هذه قدرات يمكن أن تُستخدم لتعزيز الأمن السيبراني، لكنها في الوقت ذاته تصلح لأغراض تخريبية إن وُضعت في الأيدي الخطأ.

  • تقليص الزمن اللازم لاكتشاف الثغرات من أسابيع إلى ساعات.
  • إمكانية توسيع نطاق الفحص ليشمل آلاف الأنظمة دفعة واحدة.
  • تعقيد مسؤولية الجهات المطوِّرة عند إساءة الاستخدام.

هذا التداخل بين المنفعة والمخاطر هو ما يدفع صناع القرار لإعادة التفكير في حدود الإطلاق المفتوح.


هل نحن أمام مرحلة تنظيم جديدة؟

ذو صلة

إذا مضت واشنطن في هذا الاتجاه، فقد نشهد بداية مرحلة تختلف جذرياً عن العقد الماضي من التطوير المفتوح نسبياً. مرحلة يصبح فيها تقييم المخاطر جزءاً إلزامياً من دورة حياة النموذج، إلى جانب التدريب والنشر.

التحوّل هنا ليس تقنياً فحسب، بل ثقافي أيضاً. فالذكاء الاصطناعي لم يعد مجرد أداة إنتاجية أو محرك أرباح للشركات، بل بنية استراتيجية تمس الاقتصاد الرقمي والأمن والبنية التحتية معاً. وربما يكشف هذا النقاش أن التحدي الحقيقي لم يعد في بناء نماذج أكثر ذكاءً، بل في إدارة ذكائها قبل أن يسبقنا بخطوة.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة