قوائم أراجيك

ثغرة تكشف إمكانية استغلال Copilot وGrok كخوادم وسيطة للبرامج الضارة

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

الباحثون كشفوا عن استغلال الذكاء الاصطناعي كقناة تحكم خفية للبرمجيات الخبيثة.

تتحول حركة البيانات لتبدو كممارسة عادية لخدمة موثوقة، مما يخفي الاتصال الضار.

يمكن للبرمجيات استخدام الذكاء الاصطناعي كمحرك قرار "خارجي" للهجمات السيبرانية.

تعتمد التقنية الجديدة على أدوات الذكاء الاصطناعي كطبقة تمويه مثالية.

الهوية ليست اختراقًا مباشرًا لكنها تعزز الهجمات على الأجهزة المخترقة مسبقًا.

حين نبدأ بالاعتياد على وجود مساعد ذكاء اصطناعي في زاوية المتصفح، نكاد ننسى أنه لم يعد مجرد أداة للإجابة عن الأسئلة. هو كيان متصل بالويب، قادر على التصفح، التلخيص، وجلب الروابط. هذا الامتداد المريح لقدراتنا الرقمية أصبح اليوم، وفقاً لبحث نشره موقع The Hacker News نقلاً عن Check Point، باباً محتملاً لاستخدامه كقناة تحكم خفية للبرمجيات الخبيثة.


الفكرة ببساطة المقلقة

الباحثون عرضوا تقنية أطلقوا عليها اسم AI as a C2 proxy، حيث يمكن استغلال قدرات التصفح وجلب الروابط في أدوات مثل Microsoft Copilot وGrok لتحويلها إلى وسيط اتصال بين المهاجم والجهاز المصاب. بدلاً من أن يتصل البرنامج الخبيث بخادم تحكم تقليدي، يمرر أوامره عبر واجهة مساعد الذكاء الاصطناعي نفسها.

النتيجة أن حركة البيانات تبدو وكأنها استخدام عادي لخدمة موثوقة داخل بيئة العمل. لا مفاتيح API مسروقة، ولا حسابات مخترقة بالضرورة. فقط استدعاءات تبدو شرعية إلى خدمة ذكاء اصطناعي شائعة.


من قناة أوامر إلى عقل عمليات

التحول الأخطر لا يقتصر على تمرير الأوامر. الباحثون يشيرون إلى إمكانية استخدام النموذج نفسه كـ"محرك قرار" خارجي. يمكن للبرمجية الخبيثة تزويد المساعد بمعلومات عن النظام المصاب، ليقترح بدوره الخطوة التالية: هل يستحق الهدف الاستغلال؟ ما أسلوب التمويه الأنسب؟ كيف يمكن تعديل السلوك لتجنب الاكتشاف؟


حين تصبح خدمة الذكاء الاصطناعي طبقة نقل خفية، يمكن أن تتحول أيضاً إلى دماغ تشغيلي يدير الهجوم لحظة بلحظة.

نحن هنا أمام دمج بين البنية التحتية للهجوم السيبراني ونماذج اللغة الكبيرة، بما يخلق نمطاً جديداً من التحكم والسيطرة يتسم بالمرونة والتكيّف اللحظي.


العيش على الخدمات الموثوقة

الفكرة ليست معزولة عن سياق أوسع في الأمن السيبراني. لسنوات اعتمد المهاجمون على ما يُعرف بأسلوب العيش على المواقع الموثوقة، حيث تُستخدم خدمات شرعية لإخفاء الاتصالات الضارة. الجديد هو أن أدوات الذكاء الاصطناعي، المصممة لتسهيل الوصول إلى المعلومات، قد تصبح طبقة تمويه مثالية.

  • حركة المرور تبدو طبيعية داخل الشبكة المؤسسية.
  • تعطيل الخدمة بالكامل خيار صعب بسبب اعتماد الموظفين عليها.
  • آليات مثل إلغاء المفاتيح أو تعليق الحسابات قد لا تكون فعالة.

ليس اختراقاً بحد ذاته

من المهم التمييز: هذه التقنية لا تمنح المهاجم وصولاً أولياً بحد ذاته. يجب أن يكون الجهاز قد تم اختراقه مسبقاً. لكن بمجرد تثبيت برمجية خبيثة، يمكنها استخدام المساعد كقناة تحكم أكثر خفاءً من الخوادم التقليدية.

هذا يعيد طرح السؤال حول حدود الثقة في الخدمات السحابية والواجهات المدعومة بالذكاء الاصطناعي. كل ميزة إضافية في التصفح، التلخيص، أو تنفيذ الطلبات عن بعد، تفتح مساحة جديدة للاستخدام المزدوج.


سياق أوسع من مجرد تجربة

التقرير يتقاطع مع أبحاث أخرى أظهرت إمكانية توليد شيفرة JavaScript خبيثة ديناميكياً عبر واجهات نماذج اللغة الكبيرة، لتُستخدم في هجمات تصيّد تتشكل في الوقت الحقيقي داخل المتصفح. القاسم المشترك هو الاعتماد على خدمات موثوقة لتجميع الشيفرة أو تمرير الأوامر بعيداً عن أنظمة الكشف التقليدية.

ذو صلة

نحن أمام مرحلة تتداخل فيها البنية السحابية، واجهات البرمجة، ونماذج الذكاء الاصطناعي في دورة الهجوم السيبراني نفسها، من الاستطلاع إلى التنفيذ ثم التكيّف المستمر.

الذكاء الاصطناعي لا يبتكر النوايا، لكنه يضاعف قدرات من يستخدمه. وبينما نواصل دمجه في أدوات العمل اليومية، يصبح من الواضح أن معركة الأمن لم تعد تدور فقط حول سد الثغرات، بل حول فهم كيف يمكن للتقنيات المصممة لتسهيل حياتنا أن تتحول، في السياق الخطأ، إلى وسطاء صامتين لهجمات أكثر ذكاءً.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة