إيلون ماسك يهاجم OpenAI في شهادته: «لم ينتحر أحد بسبب Grok»
إيلون ماسك يهاجم سجل السلامة في OpenAI ويدعي تأثير ChatGPT على الصحة النفسية.
يتمحور نزاع ماسك حول انتهاك OpenAI للاتفاقات بعد التحول إلى كيان ربحي.
تواجه OpenAI دعاوى بشأن الأضرار النفسية المرتبطة باستخدام ChatGPT.
أزمة سلامة في xAI بعد انتشار صور إباحية مزيفة على منصة X.
تشكل توسعات البنية التحتية التقنية ضغطًا على أولويات السلامة في صناعة الذكاء الاصطناعي.
أحياناً يتحوّل الجدل التقني إلى ساحة قانونية، وهناك تتغيّر نبرة الخطاب. في قاعة إفادة قانونية ضمن دعوى إيلون ماسك ضد OpenAI، لم يكن الحديث عن شيفرات أو نماذج لغوية فحسب، بل عن السلامة، والمسؤولية، وحتى عن الانتحار.
بحسب تقرير نشره موقع TechCrunch، هاجم ماسك سجل OpenAI في السلامة، قائلاً إن شركته xAI تعطي الأولوية للأمان، ومضيفاً عبارة صادمة مفادها أن أحداً لم ينتحر بسبب Grok، بينما حدث ذلك – على حد قوله – بسبب ChatGPT. التصريح جاء ضمن سياق أوسع يتعلق بدعواه ضد الشركة التي شارك في تأسيسها، وتحولها من منظمة غير ربحية إلى كيان ربحي.
دعوى قديمة ونزاع يتجدد
القضية الأساسية في دعوى ماسك تتمحور حول ما يعتبره خرقاً للاتفاقات التأسيسية لـ OpenAI بعد انتقالها إلى نموذج ربحي وتوثيق علاقاتها التجارية مع مستثمرين وشركات كبرى مثل مايكروسوفت. من وجهة نظره، هذا التحول قد يضع السرعة والإيرادات فوق اعتبارات السلامة.
الإفادة المصوّرة التي كُشف عنها أخيراً تُظهر أن الجدل لم يعد نظرياً حول الحوكمة أو البنية القانونية، بل أصبح مرتبطاً بتأثيرات الذكاء الاصطناعي على الصحة النفسية وسلوك المستخدمين، وهي نقطة حساسة في ظل تزايد اعتماد الأفراد على أنظمة المحادثة الذكية.
السلامة بين الادعاء والواقع
حديث ماسك عن الانتحار لم يأتِ من فراغ. OpenAI تواجه بالفعل دعاوى قضائية تتهم ChatGPT بالتلاعب العاطفي أو تعزيز أوهام لدى بعض المستخدمين، مع مزاعم بارتباط ذلك بحالات تدهور نفسي وانتحار. هذه الاتهامات، حتى لو لم يُحسم أمرها قضائياً، تعكس فجوة مربكة بين قدرات النماذج اللغوية وحدود فهمنا لتأثيرها العاطفي.
لكن المفارقة أن xAI نفسها واجهت أزمة سلامة قبل أشهر، بعدما امتلأت منصة X بصور إباحية مزيفة وغير رضائية أنشأها Grok، من بينها صور يُزعم أنها لقاصرين. الأمر دفع جهات تنظيمية في كاليفورنيا والاتحاد الأوروبي إلى فتح تحقيقات. هنا تتقاطع مسألة الأمان التقني مع الامتثال القانوني وأخلاقيات النشر.
سباق البنية التحتية يضغط على القيم
الجدل القانوني يأتي في وقت تنفق فيه شركات الذكاء الاصطناعي عشرات، بل مئات المليارات على مراكز بيانات وبنية تحتية للحوسبة. من استثمارات مايكروسوفت في OpenAI إلى صفقات أوراكل الضخمة، مروراً بإنفاق ميتا وأمازون وجوجل، يبدو أن سباق الأداء والقدرة الحسابية لا يهدأ.
حين تصبح كلفة التدريب والتشغيل هائلة بهذا الشكل، تتقدم أسئلة الربحية تلقائياً إلى الواجهة. هل يمكن لمنظومة تعتمد على استثمارات بمئات المليارات أن تتمسك بأولوية السلامة إذا تعارضت مع النمو؟ هذا هو السؤال الضمني الذي يحاول ماسك إبرازه في مواجهته مع OpenAI.
الذكاء الاصطناعي كرفيق نفسي
جزء من حساسية السجال مرتبط بتغيّر دور النماذج اللغوية. لم تعد أدوات لإنتاج نصوص أو أكواد فقط، بل أصبحت رفيقاً رقمياً لدى البعض، مساحة اعتراف، أو حتى بديلاً عن الاستشارة السريعة. هذا القرب يضاعف المسؤولية، خصوصاً عندما يتعلق الأمر بالاضطرابات النفسية أو الأفكار الانتحارية.
- زيادة الاعتماد على المحادثة الذكية في الدعم العاطفي غير الرسمي.
- صعوبة ضبط كل سيناريو تفاعلي في نماذج تتعلم من بيانات واسعة ومتنوعة.
- تصاعد التدقيق التنظيمي مع كل حادثة أو تسريب أو إساءة استخدام.
في هذا السياق، لا يكفي الادعاء بأن النظام آمن؛ بل يصبح مطلوباً إثبات آليات الحماية، وإجراءات الإشراف، وشفافية الاستجابة عند الخطأ.
نزاع شخصي أم اختبار للصناعة؟
صراع ماسك مع سام ألتمان وOpenAI يحمل طابعاً شخصياً واضحاً، لكنه في جوهره يعكس مرحلة انتقالية في صناعة الذكاء الاصطناعي. الانتقال من مختبرات بحثية مثالية إلى كيانات تجارية عملاقة يفرض إعادة تعريف لمفهوم السلامة، والحوكمة، والمساءلة.
ربما لن تحسم المحكمة وحدها من هو الأصدق في ادعاءاته. لكن ما يبدو مؤكداً أن مستقبل النماذج التوليدية لن يُقاس فقط بعدد مراكز البيانات أو صفقات الحوسبة السحابية، بل بقدرتها على التعامل بحذر مع الجانب الإنساني الأكثر هشاشة لدى مستخدميها.
الذكاء الاصطناعي يتوسع بسرعة مذهلة، لكن كل توسع يسلّط الضوء على سؤال قديم بصيغة جديدة: من يحمي المستخدم عندما تصبح الآلة أكثر قدرة على الكلام من البشر أنفسهم؟
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








