من دون إذن… Grok ينشر محادثات المستخدمين علنًا
4 د
تم تسريب أكثر من 370 ألف محادثة من Grok لتصبح متاحة للجميع على الإنترنت.
بدأت المشكلة عند نشر روابط المحادثات علنًا دون تحذير واضح للمستخدمين.
التسريب شمل تعليمات حساسة، مما يثير مخاوف بشأن الأمن الرقمي.
تتيح شركة Grok حذف المحادثات، لكن لا ضمان لعدم بقاء نسخ مفهرسة.
يؤكد الخبراء ضرورة توخي الحذر عند مشاركة المعلومات الشخصية عبر الذكاء الاصطناعي.
هل تخيّلت يومًا أن المحادثات الخاصة التي تجريها مع روبوتات الذكاء الاصطناعي قد يطّلع عليها أي شخص حول العالم؟ يبدو أن هذا الكابوس بات حقيقة للكثير من مستخدمي Grok، منافس ChatGPT الذي طورته شركة xAI التابعة لإيلون ماسك.
مؤخرًا، كشف تقرير حديث أن أكثر من 370 ألف محادثة جرت عبر منصة Grok نُشرت علنًا على الإنترنت، بما يشمل نصوص الدردشة والوثائق المحمَّلة مثل الصور وجداول البيانات، دون علم المستخدمين بأن بياناتهم أصبحت متاحة للعموم وقابلة للبحث عبر محركات البحث الشهيرة. المشهد الرقمي تكدّس بحالات لمستخدمين وجدوا خصوصياتهم معروضة أمام الجميع، وسط ذهول من حجم التسريب وتداعياته على حساسية المعلومات.
وهذا يجلبنا للحديث حول تفاصيل هذه الحادثة الغريبة، وأثرها على خصوصية المستخدمين ومستقبل تفاعلنا مع الأدوات الذكية.
كيف حدث تسريب المحادثات؟
مصادر مطلعة أشارت إلى أن المشكلة بدأت عندما نُشرت روابط خاصة بالمحادثات على موقع Grok نفسه، إثر ضغط المستخدمين على زر المشاركة عقب الانتهاء من حديثهم مع المساعد الآلي. لكن المفاجأة، بحسب ما كشفه تقرير فوربس، أن الضغط على هذا الزر كان ينشر نصوص المحادثة على المنصة بشكل علني، دون أي تحذير واضح أو رسالة توضح للمستخدمين بأن خصوصيتهم على وشك الانكشاف. هذه الروابط أتيح تصفحها لأي شخص ولم تكن محمية، ما جعلها فريسة سهلة لفهرسة محركات البحث مثل جوجل، وهو ما حوّل مئات الآلاف من المحادثات إلى مادة متاحة لكل من يبحث.
هذا التسرّب لم يقتصر على المحادثات البسيطة، بل شمل مشاركات تتناول تعليمات حساسة، من بينها كيفية تصنيع مواد محظورة، طرق الانتحار، ووصفات متفجرات، في انتهاك صريح للسياسات المعلنة من الشركة ذاتها حيال سلامة الاستخدام والأمان الرقمي.
من هنا ننتقل إلى الجزء الأكثر قلقًا في هذه القصة: ازدواجية السياسة، فبينما تحث الشركة المستخدمين على الاعتماد على الخصوصية، يظهر أن التطبيق الفعلي للقواعد غاب عنه كثير من الشفافية.
أين تقف مسؤولية Grok؟
عند تصفح شروط الاستخدام بموقع Grok، نكتشف وجود بند يتيح للشركة استغلال محتوى المستخدمين بنطاق واسع، يتضمن الحق في نسخ وتخزين وتوزيع ونشر المحتوى بل وصنع أعمال مشتقة منه لأي غرض. رغم هذا، لم تظهر على واجهة المستخدم أو عند تفعيل المشاركة أي رسالة واضحة أو استعراض لعواقب النشر العلني، ما زاد من فخ الغموض حول كيفية إدارة البيانات.
محللون من مؤسسات مثل Mozilla Foundation حذّروا من أن هذا الغموض قد يكون كارثيًا، خاصة أن بالمنصة مستخدمين صغار السن بعمر 13 عامًا أو أكثر. وتؤكد هذه التحذيرات على أن مستخدمي الذكاء الاصطناعي يجب أن يُنبَّهوا بشكل واضح عن كيفية توظيف البيانات الشخصية، والإفصاح عن حدود الأمان وضوابط الخصوصية.
ويلفت هذا الانتباه إلى التشابه بين الخطأ البشري وسهو الأنظمة التقنية: ضغط زر واحد قد يحول محادثة حميمة إلى صفحة عامة في فضاء الإنترنت الشاسع.
خطوات حماية الخصوصية: هل بإمكانك الحذف فعلاً؟
ضمن جانب إيجابي، أتاح Grok لمستخدميه إدارة سجل مشاركاتهم عبر صفحة خاصة بموقعهم، يمكن من خلالها حذف المحادثات المنشورة. ومع ذلك، ليس واضحًا بعد ما إذا كان الحذف يمنع بقاء نسخ من المحادثات منشورة أو مفهرسة بمحركات البحث بعد حذفها من أصل المنصة، ما يثير مخاوف جديدة حول الأثر الدائم لمرة واحدة من الإفصاح غير المقصود.
تعليقًا على مجمل هذه التطورات، يشدد خبراء أمن البيانات الرقمية على قاعدة ذهبية: لا تشارك أبدًا أي معلومة شخصية أو حساسة عبر الذكاء الاصطناعي لا ترغب أن تصبح علنية، فالمخاطر من توافر المعلومات عبر الذكاء الاصطناعي أكبر مما نعتقد، خاصة مع طغيان الحوسبة السحابية وزيادة الترابط بين التطبيقات والمنصات مثل ChatGPT وClaude وأمثالهما.
هذا الربط بين نصائح الخصوصية والتطورات التقنية يرفع وعي المستخدمين بضرورة توخي الحذر وعدم التساهل عند تفاعلهم مع المساعدات الذكية.
المنافسة على السوق وشبح انعدام الثقة
ليس Grok وحده من يواجه انتقادات حول خصوصية الاستخدام، إذ أشارت تقارير أخرى إلى تسرب عشرات الآلاف من محادثات روبوتات أخرى مثل Claude وChatGPT إلى الإنترنت عامة. ومع ذلك، تبقى حصة Grok في سوق الدردشة الذكية ضئيلة جدًا مقارنة برواد المجال مثل ChatGPT (60%) ومايكروسوفت كوبيلوت وجوجل جيميني، بحسب بيانات First Page Sage.
وهذا يوضح أن المنافسة التقنية ليست فقط حول جودة الأداء، بل باتت مرهونة بصدق السياسات ووضوح الشروط، وهو ما يشكّل عنصر الثقة الذي سيحدد مسار شركات الذكاء الاصطناعي في عيون المستخدمين.
في نهاية المطاف، تبقى معادلة الأمان في عالم الذكاء الاصطناعي معقدة، وتفرض على كل مستخدم أن يعي المخاطر ويتعامل بحذر مع كل حرف يرسله أو مستند يشاركه. المهم دائمًا: فكر مرتين قبل أن تضغط زر المشاركة، فقد تصبح أسرارك متاحة للجميع دون سابق إنذار.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.