كيف تسعى OpenAI لتغيير عاداتنا الخاطئة في التعامل مع الذكاء الاصطناعي
أطلقت OpenAI نموذج Privacy Filter لحماية المعلومات الشخصية في منصات الذكاء الاصطناعي.
يعمل النموذج على اكتشاف وإخفاء البيانات الحساسة مثل الأسماء والعناوين وأرقام الحسابات.
النموذج مفتوح المصدر ويدعم التشغيل المحلي للحد من إرسال البيانات لخوادم خارجية.
تصنيف البيانات الحساسة يشمل فئات كالروابط والبريد الإلكتروني لضمان الامتثال.
رغم دقة النموذج، يبقى التدقيق البشري ضرورياً خاصة في النصوص المعقدة.
اعتاد كثيرون على نسخ محادثة كاملة مع بنكهم، أو رسالة تحتوي على عنوان منزلهم، ولصقها مباشرة داخل أدوات الذكاء الاصطناعي طلباً للشرح أو التحليل. لحظة الراحة هذه، التي تختصر وقتاً وجهداً، تخفي وراءها قلقاً صامتاً يتعلق بالخصوصية. هنا تحديداً تحاول OpenAI أن تتدخل عبر إطلاق نموذج جديد يحمل اسم Privacy Filter، مخصص لاكتشاف المعلومات الشخصية الحساسة وإخفائها قبل أن تنزلق إلى أماكن غير مناسبة.
حل لمشكلة سلوكية قبل أن تكون تقنية
المسألة لا تتعلق بخلل أمني بقدر ما ترتبط بعادة بشرية متنامية: الثقة المفرطة في أدوات الذكاء الاصطناعي. مع انتشار ChatGPT وأدوات مشابهة في العمل والتعليم والدعم القانوني والمالي، أصبح إدخال بيانات حساسة أمراً شبه اعتيادي. Privacy Filter يأتي كمحاولة لبناء طبقة حماية استباقية داخل سير العمل، بحيث يجري رصد البيانات الشخصية القابلة للتعريف مثل الأسماء والعناوين وأرقام الحسابات قبل معالجتها أو تخزينها.
النموذج متاح بترخيص Apache 2.0 كمشروع مفتوح الأوزان عبر منصتي Hugging Face وGitHub، ما يعني أن الشركات والمطورين قادرون على تشغيله محلياً وتضمينه داخل تطبيقاتهم دون قيود كبيرة.
كيف يعمل نموذج تصفية الخصوصية؟
بدلاً من توليد النص كلمة بكلمة، يعتمد Privacy Filter على أسلوب تصنيف الرموز في تمريرة واحدة، فيقوم بتحليل النص وتوسيم العناصر الحساسة مباشرة. هذا النهج يسمح له بمعالجة مستندات طويلة تصل إلى 128 ألف رمز سياقي، مع بنية تضم 1.5 مليار معلمة لكن يُفعّل منها نحو 50 مليون فقط أثناء التشغيل، ما يمنحه توازناً بين الدقة والسرعة.
الأهم هو قدرته على فهم السياق، والتمييز بين معلومة عامة وأخرى مرتبطة بشخص خاص. فذكر اسم مدينة يختلف عن ذكر عنوان منزل كامل، وذكر اسم شركة ليس كذكر اسم فرد مرفق برقم هاتفه. هذا التمييز يقلل الإفراط في الحجب الذي قد يفرغ النص من معناه، ويحافظ في الوقت نفسه على سرية البيانات.
ثماني فئات حساسة تحت المراقبة
يقسم النموذج البيانات الحساسة إلى ثماني فئات رئيسية تشمل الأسماء، العناوين، البريد الإلكتروني، أرقام الهواتف، الروابط، التواريخ، أرقام الحسابات، وما يصنف كأسرار مثل كلمات المرور ومفاتيح البرمجة. هذا التصنيف يمنح المؤسسات هيكلاً واضحاً لإدارة الامتثال وحوكمة البيانات، خصوصاً في البيئات التي تتعامل مع معلومات مالية أو طبية.
- إمكانية التشغيل المحلي تقلل الحاجة لإرسال النصوص الخام إلى خوادم خارجية.
- إمكانية الضبط الدقيق على بيانات محدودة تحسن الأداء في مجالات متخصصة.
اختبارات OpenAI على مجموعة بيانات PII-Masking-300k أظهرت معدل F1 بلغ 96%، مع ارتفاع النتائج في نسخة مراجعة من البيانات. ورغم أهمية هذه الأرقام، تبقى القراءة الواقعية للأداء مرتبطة بطبيعة النصوص الفعلية في كل مؤسسة.
لا عصمة للنماذج
تعترف OpenAI صراحة بأن النموذج قد يخطئ، سواء بتجاهل معرفات نادرة أو بإخفاء معلومات أكثر مما ينبغي، خاصة في النصوص القصيرة أو الغامضة. في البيئات القانونية والمالية والطبية، يظل التدقيق البشري عاملاً أساسياً. الخصوصية هنا ليست ميزة تقنية فقط، بل عملية مستمرة تجمع بين الخوارزميات والسياسات والوعي البشري.
النموذج أداة مساعدة ضمن منظومة حماية أشمل، وليس بديلاً عن التقييم البشري.
سياق أوسع لحوكمة الذكاء الاصطناعي
إطلاق Privacy Filter يعكس توجهاً متنامياً نحو بناء بنية تحتية تحمي البيانات منذ لحظة إدخالها. لم يعد السؤال كيف نجعل النماذج أذكى فحسب، بل كيف نجعلها أكثر التزاماً بضوابط الامتثال وأمن المعلومات. مع تسارع اعتماد الذكاء الاصطناعي في المؤسسات، يصبح وجود أدوات لإخفاء البيانات الحساسة جزءاً من تصميم النظام لا إضافة لاحقة.
في النهاية، قد لا يمنع هذا النوع من النماذج كل تسرب محتمل، لكنه يغير نقطة البداية. بدلاً من افتراض أن المستخدم سيتصرف بحذر كامل، يجري نقل جزء من المسؤولية إلى البنية التقنية نفسها. إنها خطوة تعترف بطبيعتنا البشرية أولاً، ثم تحاول أن تعالجها بخوارزمية.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








