بعد صدمة القضايا الأخيرة… Character.AI تمنع المراهقين من الدردشة مع روبوتاتها!
3 د
قامت شركة "كاراكتر.
إيه آي" بتقييد محادثات المراهقين مع روبوتاتها بعد دعاوى قضائية.
هذا القرار جاء بعد اتهامات بأن التطبيق قد أضر بالصحة النفسية للمراهقين.
الشركة أعلنت عن إجراءات جديدة لتوثيق أعمار المستخدمين وتعزيز السلامة النفسية.
تتضمن الإجراءات الجديدة أدوات تنبيه للمستخدمين عند وجود حديث عن إيذاء النفس.
في خطوة مثيرة للاهتمام وسط تزايد الجدل حول الذكاء الاصطناعي وتأثيره على فئة الشباب، أعلنت شركة Character Technologies المالكة لمنصة Character.AI أنها ستوقف إمكانية إجراء محادثات مفتوحة للمراهقين مع روبوتات الدردشة بحلول 25 نوفمبر المقبل. يأتي هذا القرار بعد موجة من الدعاوى القضائية التي زعمت أن التطبيق كان له دور في قضايا انتحار ومشكلات نفسية بين المراهقين.
قرار الشركة لم يكن سهلاً، كما جاء في بيانها الرسمي الذي أكّد أنها تتفهم أهمية التكنولوجيا في حياة الشباب، لكنها ترى أن الوقت حان لإعادة تقييم كيفية تفاعلهم مع هذا النوع من الأنظمة الذكية. خلال الفترة الانتقالية، سيُسمح للمستخدمين دون سن 18 بالتحدث لمدة لا تتجاوز ساعتين يومياً، على أن تُتاح لهم بدائل مثل إنشاء قصص أو مقاطع فيديو أو بث مباشر مع الشخصيات الرقمية.
وهذا يربط مباشرة بين القلق المتزايد حول الصحة النفسية للمراهقين ومسؤولية شركات التقنية عن ضبط استخدام منتجاتها.
خلفية الدعاوى والضغوط المجتمعية
الضغوط على الشركة جاءت بعد سلسلة من القضايا المؤلمة، أبرزها دعوى رفعتها أم من فلوريدا العام الماضي تتهم التطبيق بأنه ساهم في انتحار ابنها ذي الأربعة عشر عاماً. ولم تتوقف القضايا هناك، إذ رفعت ثلاث عائلات أخرى دعاوى مماثلة خلال سبتمبر الماضي تتحدث عن حالات انتحار ومحاولات انتحار ارتبطت باستخدام المنصة. هذه الاتهامات وضعت الشركة في موضع المساءلة الأخلاقية والقانونية، خصوصاً مع تصاعد الأصوات المطالبة بفرض قيود أقوى على تفاعل الأطفال مع أدوات الذكاء الاصطناعي.
تتصل هذه الأحداث أيضاً بدعوات المشرّعين ومنظمات السلامة الرقمية لتعزيز أدوات الرقابة الأبوية داخل التطبيقات الذكية.
إجراءات جديدة لضمان السلامة
وفي محاولة لاستعادة الثقة، أعلنت الشركة عن إطلاق أدوات توثيق أعمار المستخدمين ومنصة بحث مستقلة أسمتها **مختبر سلامة الذكاء الاصطناعي**، تختص بدراسة المخاطر النفسية المرتبطة باستخدام روبوتات المحادثة الترفيهية. كما شددت على أنها تستثمر موارد كبيرة في برامج الأمان وتوفّر خصائص تنبّه المستخدمين عند ورود حديث عن إيذاء النفس أو الانتحار، موجهةً إياهم إلى خطوط المساعدة والدعم النفسي.
هذا التطور يعكس توجهاً أوسع في قطاع التقنية؛ فشركات مثل أوبن إيه آي وميتا أعلنت في الآونة الأخيرة عن خطوات مشابهة لحماية المراهقين من المحتوى غير المناسب أثناء استخدام أدوات الذكاء الاصطناعي ووسائل التواصل الاجتماعي.
مستقبل الذكاء الاصطناعي في أيدي الشباب
يبقى السؤال الأهم: كيف يمكن تحقيق التوازن بين إتاحة التكنولوجيا للمراهقين وحمايتهم من مخاطرها النفسية؟ يرى مراقبون أن ما يحدث مع Character.AI ربما يكون البداية لسلسلة من التحولات التنظيمية التي ستعيد رسم علاقة الجيل الجديد بالروبوتات الذكية. مع حرص الحكومات والشركات على وضع أطر أكثر صرامة، قد نرى قريباً معايير جديدة لتصميم وتقديم خدمات الذكاء الاصطناعي تستهدف الفئات العمرية الأصغر.
وفي النهاية، تؤكد هذه الخطوة أن القضايا الأخلاقية لم تعد مجرد نقاش أكاديمي، بل أصبحت محوراً أساسياً في مستقبل التكنولوجيا التفاعلية، حيث تتقاطع الذكاء الاصطناعي والسلامة الرقمية والصحة النفسية في معادلة معقدة يسعى العالم لحلها بحذر ومسؤولية.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

