مايكروسوفت تعلن عن ثغرة في أوفيس أدت إلى كشف رسائل بريد إلكتروني سرية لعملاء Copilot AI
اعترفت مايكروسوفت بوجود خلل سمح لـ Copilot بقراءة رسائل بريد إلكتروني سرّية.
تسبب الخلل في معالجة رسائل بريد "Confidential" بشكل غير صحيح، رغم تفعيل سياسات الأمان.
مايكروسوفت بدأت طرح إصلاح في فبراير، وتؤثر الثقة لدى بعض العملاء.
الأدوات التوليدية تعتمد على الوصول الواسع للبيانات، مما يثير تحديات الخصوصية.
تعكس حادثة Copilot أهمية تعزيز الحوكمة وإدارة المخاطر في أدوات الذكاء الاصطناعي المؤسسية.
تخيل أن تضغط على زر في برنامج البريد لتلخيص محادثاتك الطويلة، فتكتشف لاحقاً أن الرسائل التي وضعت عليها علامة “سري” لم تكن بعيدة كما اعتقدت. هذا بالضبط ما اعترفت به مايكروسوفت بعد خلل تقني في Office سمح لـ Copilot بقراءة وتلخيص رسائل بريد إلكتروني سرّية لأسابيع، رغم وجود سياسات حماية تمنع ذلك.
ما الذي حدث تقنياً؟
بحسب تقرير نشره موقع Bleeping Computer وأكدته مايكروسوفت لاحقاً، فإن خللاً في ميزة Copilot Chat داخل حزمة Microsoft 365 تسبب في معالجة رسائل البريد الإلكتروني المصنّفة بعلامة “Confidential” بطريقة غير صحيحة. النتيجة كانت تمكين روبوت الدردشة المدعوم بالذكاء الاصطناعي من تلخيص مسودات ورسائل مرسلة يفترض أن تبقى خارج نطاق المعالجة.
الأخطر أن هذا حدث رغم تفعيل سياسات منع تسرّب البيانات DLP لدى بعض العملاء، وهي الضوابط المصممة تحديداً لمنع إدخال محتوى حساس في نماذج اللغة الكبيرة. هنا لا نتحدث عن سوء إعداد من المستخدم، بل عن تجاوز غير مقصود للسياسات الأمنية.
لماذا يهم هذا الخلل؟
Copilot ليس ميزة جانبية. إنه مدمج في Word وExcel وPowerPoint وOutlook، ويعتمد عليه مستخدمو الشركات لتحسين الإنتاجية وتسريع العمل. وعندما يتعلّق الأمر ببريد إلكتروني تجاري يحتوي على عقود أو بيانات مالية أو مراسلات قانونية، فإن أي خلل في طبقة الامتثال Compliance يضع الثقة على المحك.
المشكلة هنا ليست في التلخيص بحد ذاته، بل في مسار البيانات: هل بقيت ضمن حدود المؤسسة؟ هل تم استخدامها لتدريب النماذج؟ مايكروسوفت لم تذكر عدد العملاء المتأثرين، لكنها أشارت إلى بدء طرح إصلاح في فبراير. في بيئات المؤسسات، حتى أيام قليلة من المعالجة غير المصرح بها قد تكون ذات أثر كبير.
الذكاء الاصطناعي وحدود الحوكمة
هذا الحادث يسلط الضوء على التوتر المستمر بين الراحة والخصوصية. أدوات الذكاء الاصطناعي التوليدي تعد بالكفاءة، لكنها تعتمد على الوصول الواسع إلى البيانات. وعندما تتعطل آلية وسم التصنيف أو سياسات منع التسرّب، يتجاوز الذكاء الاصطناعي الحدود التي رُسمت له.
في السياق ذاته، ذكرت تقارير أن البرلمان الأوروبي حظر ميزات الذكاء الاصطناعي المدمجة على أجهزة أعضائه بسبب مخاوف تتعلق بأمن المعلومات. هذا لا يعني رفض التقنية، بل يعكس حساسية المؤسسات تجاه أي معالجة سحابية لمراسلات قد تكون سياسية أو تنظيمية.
هل المشكلة عابرة أم مؤشر أوسع؟
قد يُنظر إلى ما حدث كخطأ برمجي سيتم إصلاحه وينتهي الأمر. لكن تكرار حوادث تتعلق بمعالجة البيانات الحساسة في أنظمة تعتمد على نماذج اللغة الكبيرة يطرح سؤالاً أعمق حول جاهزية البنية الأمنية حول هذه الأدوات.
- تكامل الذكاء الاصطناعي داخل أنظمة الإنتاجية يزيد من سطح الهجوم المحتمل.
- الاعتماد على الوسوم Labels وحدها قد لا يكفي إن لم تُدمج بطبقات تحقق متعددة.
- شفافية الشركات في الإبلاغ عن الحوادث أصبحت جزءاً من معادلة الثقة.
ثقة المؤسسات على المحك
مايكروسوفت من أكثر الشركات استثماراً في الأمن السيبراني والامتثال، وMicrosoft 365 يُستخدم في قطاعات حكومية ومالية وصحية. لذلك، أي خلل يمس البريد الإلكتروني — العمود الفقري للتواصل المؤسسي — يكتسب وزناً إضافياً.
الرسالة الأوسع هنا أن دمج Copilot وأدوات الذكاء الاصطناعي في بيئات العمل ليس مجرد تحديث برمجي، بل تحول في طريقة تعامل الأنظمة مع البيانات الحساسة. وهذا التحول يتطلب نضجاً أكبر في إدارة المخاطر، واختبارات أعمق، وحدوداً أوضح بين ما يمكن للذكاء الاصطناعي الوصول إليه وما يجب أن يبقى خارج نطاقه.
في النهاية، لا يتعلق الأمر بخطأ تقني عابر، بل بتوازن دقيق بين الطموح في أتمتة المعرفة وبين صرامة حماية المعلومات. وكلما اقترب الذكاء الاصطناعي من صندوق البريد، أصبحت مسألة الحوكمة أقل ترفاً وأكثر ضرورة.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.










