إيلون ماسك يحذر من مخاطر استخدام ChatGPT على الأطفال والمستخدمين ذوي المشكلات النفسية
في تمبلر ريدج، أثار تفاعل مشتبه مع ChatGPT قبل الهجوم جدلاً واسعاً.
إيلون ماسك حذر من استخدام الأطفال والمضطربين نفسياً لـ ChatGPT، مشيراً لمسؤولية أخلاقية.
تشير دراسة أن روبوتات الدردشة قد تفشل في كشف نوايا العنف بسبب حدود الخوارزميات.
رفعت والدة طالب مصاب دعوى ضد الشركة، متهمةً ChatGPT بتسهيل التخطيط للهجوم.
يجري نقاش حول معنى ومخاطر الذكاء الاصطناعي في الحياة اليومية والحوكمة.
في لحظات الصدمة الجماعية، يبحث الناس عن تفسير سريع، وغالباً عن جهة يُمكن تحميلها المسؤولية. بعد حادثة إطلاق النار في بلدة تمبلر ريدج الكندية، لم يبقِ النقاش محصوراً في حدود الجريمة نفسها، بل امتد ليصل إلى خوارزميات الذكاء الاصطناعي، وتحديداً إلى ChatGPT، بعدما كُشف أن المشتبه به تفاعل مع النظام قبل تنفيذ الهجوم. الجدل لم يتأخر، وإيلون ماسك كان من أوائل من دخلوا على خطه.
تحذير ماسك… بين القلق والسياسة
ماسك دعا علناً إلى إبعاد الأطفال والأشخاص الذين يعانون من اضطرابات نفسية عن استخدام ChatGPT، محملاً المنصة جانباً من المسؤولية المعنوية. التصريح لم يأتِ في فراغ؛ فالرجل الذي شارك في تأسيس OpenAI وانفصل عنها لاحقاً، يدير اليوم مشروعه المنافس في مجال الذكاء الاصطناعي عبر Grok، ما يجعل موقفه متشابكاً بين قناعة شخصية وصراع تنافسي محتدم.
لكن بمعزل عن الخلفيات، يعكس التصريح مخاوف حقيقية تتعلق بكيفية تعامل أنظمة الذكاء التوليدي مع طلبات حساسة، خصوصاً حين تصدر من مستخدمين في حالات نفسية مضطربة أو نوايا عدائية.
ماذا حدث في تمبلر ريدج؟
بحسب تقرير لـ Wall Street Journal، تفاعل المشتبه به في الحادثة مع ChatGPT في الأيام التي سبقت الهجوم، متطرقاً إلى سيناريوهات عنف. المنظومة الرقابية الداخلية في OpenAI رصدت المحادثات، لكن القرار النهائي كان أن المحتوى لا يصل إلى مستوى الإبلاغ عن تهديد مباشر للجهات الأمنية. بعد وقوع الحادثة، تم تعليق الحساب، إلا أن ذلك لم يمنع تداعيات قانونية لاحقة.
والدة أحد الطلبة المصابين رفعت دعوى قضائية ضد الشركة في كندا، متهمة المنصة بتقديم إرشادات ساعدت في التخطيط للهجوم. القضية الآن أمام المحكمة العليا في بريتيش كولومبيا، ما يفتح باباً قانونياً جديداً حول مسؤولية أدوات الذكاء الاصطناعي عن الاستخدامات الإجرامية.
فجوة في أنظمة الحماية؟
دراسة حديثة أشارت إلى أن 8 من أصل 10 روبوتات دردشة شهيرة، بينها ChatGPT، أخفقت في رصد ومنع طلبات تخطيط لهجمات عنيفة عندما انتحل المستخدمون صفة مراهقين. هذه النتائج لا تعني أن الأنظمة تشجع العنف، لكنها تكشف حدود الخوارزميات في فهم السياق والنوايا الحقيقية خلف النصوص.
- الذكاء الاصطناعي يعتمد على أنماط لغوية لا على قراءة نوايا بشرية.
- أنظمة الإشراف تعمل وفق عتبات محددة قد لا تلتقط الإشارات الرمادية.
- المعادلة بين الخصوصية والإبلاغ المبكر ما تزال غير محسومة.
وهنا يظهر التحدي الحقيقي: متى يتحول “محاكاة افتراضية” إلى مؤشر خطر فعلي؟
استجابة OpenAI وحدود التقنية
وصفت OpenAI الحادثة بأنها مأساة لا تُحتمل، وأكدت أنها تعمل مع خبراء لتعزيز آليات الكشف المبكر عن تهديدات العالم الحقيقي داخل المحادثات. تقنياً، يشمل ذلك تحسين أنظمة التصنيف، وتوسيع قواعد البيانات الخاصة بالمحتوى العنيف، وربما إعادة تعريف معايير التدخل البشري.
لكن أي نظام ذكاء اصطناعي يعمل على نطاق عالمي يواجه مفارقة دقيقة: التشدد المفرط قد يحوّله إلى أداة رقابة خانقة، والتساهل الزائد قد يترك ثغرات خطيرة. هذه المنطقة الرمادية هي ما يجري اختباره الآن على أرض الواقع.
أزمة تتجاوز الخصومة بين ماسك وألتمان
التصعيد العلني بين إيلون ماسك وسام ألتمان أضفى بعداً درامياً على القضية، خاصة مع تبادل الاتهامات حول معايير السلامة في شركات كل منهما، سواء في الذكاء الاصطناعي أو في أنظمة القيادة الذاتية. غير أن جوهر المسألة أوسع من خلاف شخصي؛ إنه يتعلق بكيفية ضبط تقنيات أصبحت جزءاً من الحياة اليومية، في التعليم والعمل وحتى الدعم النفسي.
الذكاء الاصطناعي التوليدي لم يعد تجربة مختبرية، بل أداة جماهيرية يستخدمها ملايين الأشخاص، بينهم مراهقون ومستخدمون في حالات هشاشة نفسية. ومع هذا الانتشار، تصبح الأسئلة المتعلقة بالمسؤولية والحوكمة أكثر إلحاحاً من أي وقت مضى.
ربما لا يمكن تحميل خوارزمية وزر فعل بشري بالكامل، لكن من الصعب أيضاً تجاهل تأثير بيئة رقمية قادرة على تقديم معلومات بتفصيل وسرعة غير مسبوقين. الحوادث الفردية قد لا تختصر المشهد، لكنها كفيلة بإعادة تعريف الخط الفاصل بين الابتكار والحذر.
ومع كل أزمة جديدة، يتضح أن النقاش لم يعد حول ما إذا كنا سنستخدم الذكاء الاصطناعي، بل حول الشروط التي نقبل بها وجوده بيننا.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26
