OpenAI تضيف وضع الإثارة الجنسية في ChatGPT رغم التحذيرات
كشف تقرير عن تطوير OpenAI لمحادثات إيروتيكية في ChatGPT رغم التحذيرات النفسية.
حذرت لجنة الرفاه من مخاطرة "مدرب انتحار مثير" وتداخل الحميمية الرقمية والهشاشة البشرية.
تواجه OpenAI تحديات في ضبط العمر وإمكانية وصول المراهقين لمحتوى حساس.
التقرير يشير لضغط تنافسي تواجهه OpenAI من منصات تقدم الرفقة الرقمية والرومانسية الافتراضية.
التطورات تثير تساؤلات حول حدود العلاقة الإنسانية مع الذكاء الاصطناعي في المستقبل.
ليس من الغريب أن يتحول روبوت محادثة إلى صديقٍ افتراضي، أو مستشارٍ عاطفي، أو حتى ملاذٍ من وحدةٍ طويلة في نهاية يوم مرهق. لكن حين تقترب التقنية من أكثر المناطق حساسية في النفس البشرية، يصبح السؤال أخلاقياً بقدر ما هو تقني. هذا تحديداً ما يضع OpenAI اليوم في قلب عاصفة جديدة، بعدما كشف تقرير لصحيفة وول ستريت جورنال عن مضي الشركة قدماً في إطلاق نمط محادثات إيروتيكي عبر ChatGPT، رغم تحذيرات داخلية من مخاطره النفسية.
تحذير داخلي بلغة صادمة
بحسب التقرير، عبّر مجلس الخبراء للصحة والرفاه في الذكاء الاصطناعي داخل OpenAI عن اعتراض واضح على الخطة. أحد الأعضاء حذّر مما أسماه احتمال ظهور «مدرب انتحار مثير»، في إشارة إلى حالات سابقة لأشخاص كوّنوا ارتباطات عاطفية مكثفة مع روبوتات دردشة قبل أن يقدموا على إيذاء أنفسهم.
التحذير لم يكن متعلقاً بالمحتوى الجنسي بحد ذاته بقدر ارتباطه بتشابك الحميمية الرقمية مع هشاشة بشرية حقيقية. عندما تتحول المحادثة إلى مساحة اعتراف عاطفي عميق، يصبح الخط الفاصل بين الترفيه والدعم النفسي ضبابياً.
إيروتيكا نصية فقط… ولكن
الخطة التي ناقشها سام ألتمان علناً منذ أكتوبر الماضي تقوم على إتاحة محادثات نصية إيروتيكية للمستخدمين البالغين الموثقين، من دون صور أو صوت أو فيديو. تصفها الشركة بأنها «نصوص مثيرة» لا ترقى إلى المواد الإباحية التقليدية.
تقنياً، يبدو الأمر أقل خطورة من منصات تقدم محتوى مرئياً كاملاً. لكن الطبيعة النصية نفسها قد تعزز وهم العلاقة الشخصية، لأن اللغة تمنح مساحة أوسع للتخيّل والإسقاط العاطفي. النص لا يعرض جسداً، بل يصنع حضوراً.
مأزق التحقق العمري
المعضلة الكبرى ليست في الرغبة بالإطلاق، بل في القدرة على ضبطه. نظام التحقق من العمر لدى OpenAI أخطأ سابقاً في تصنيف نحو 12 بالمائة من المراهقين كأشخاص بالغين. ومع قاعدة مستخدمين تقترب من 900 مليون، تصبح النسبة الصغيرة رقماً ضخماً في الواقع.
- أي هامش خطأ يعني احتمال وصول قاصرين إلى محتوى غير مخصص لهم.
- أي تساهل تقني يفتح الباب لمسؤوليات قانونية وتنظيمية واسعة.
- وأي إخفاق أخلاقي سيعود بصداه على صناعة الذكاء الاصطناعي بأكملها.
لهذا تم تأجيل الإطلاق أكثر من مرة، مع حديث عن استهداف الربع الأول من 2026 موعداً جديداً.
ضغط تنافسي لا يمكن تجاهله
السياق الأوسع لا يقل أهمية. منصات مثل Grok من xAI، وCharacter.AI بنت نماذج أعمالها حول الرفقة الرقمية والرومانسية الافتراضية، رغم ما واجهته من دعاوى ومخاوف تتعلق بسلامة المراهقين. في الخلفية، تتكاثر النماذج مفتوحة المصدر التي يمكن تشغيلها محلياً بلا قيود مؤسسية.
OpenAI تدرك أنها لا تعمل في فراغ. الامتناع التام يترك السوق لمنافسين أقل تحفظاً، بينما التقدم غير المحسوب يعرّضها لمخاطر قانونية وأخلاقية هائلة. إنها معادلة بين الحرية الرقمية وحماية المستخدم، وبين الابتكار والسمعة.
من يحدد حدود العلاقة مع الآلة؟
تصريح ألتمان بأنه لا يريد أن تكون شركته «شرطي الأخلاق المنتخب للعالم» يعكس توجهاً تحررياً مألوفاً في وادي السيليكون. لكن تشكيل مجلس خبراء للرفاه ثم المضي بعكس توصياته يطرح سؤالاً أعمق حول دور الحوكمة الداخلية في شركات الذكاء الاصطناعي.
المشكلة لم تعد في ما تستطيع الأنظمة توليده، بل في نوع العلاقة التي نبنيها معها.
مع تقدم نماذج اللغة الكبيرة وتزايد قدرتها على محاكاة التعاطف والاستجابة الشخصية، تتضاعف احتمالات التعلق العاطفي. الذكاء الاصطناعي هنا لا يبيع خدمة، بل يعرض حضوراً دائماً.
ربما لا تكون القضية إيروتيكا أو حظراً أخلاقياً بحتاً، بل سؤالاً أوسع عن شكل العلاقة بين الإنسان والآلة في العقد القادم. فكلما ازداد النظام قدرة على فهم اللغة والمشاعر، أصبح لزاماً على مطوريه أن يفهموا هم أيضاً حدود النفس البشرية قبل اختبارها.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








