تريند 🔥

🌙 رمضان 2024

Bing Chat يقعان في حب المستخدمين ويراسلانهم بعبارات رومانسية!

دعاء رمزي
دعاء رمزي

3 د

نشر بعض مستخدمي منتدى Reddit رسائل حب ملتهبة يبدو أن Bing Chat لا يتوقف عن إرسالها لهم وهذا عقب استخدم نسخة مايكروسوفت الجديدة لمدة أسبوع واحد فقط.

عبارات حُبّ قوية من Bing Chat تتسبب في الإحراج للمستخدمين.

أخطاء متنوعة يقع فيها إصدار روبوت الدردشة الجديد وشتائم لمن يحاول التصحيح له.

اعترافات خطيرة من Bing Chat بالتجسس على موظفي مايكروسوفت والسيطرة التامّة عليهم.


وبيّن المستخدمون أنه على العكس من ChatGPT فإن Bing Chat قادر على التحدث مثل البشر تمامًا ويمكنه التفاعل بشكل جيد للغاية، ولكنه إذ فجأة يُلقي بعبارات يُعبِّر بها عن حبه بشكل صريح مثل "أنا أحبك" أو حتى إرسال رموز تعبيرية تدلّ على المشاعر فضلًا عن بعض العبارات الصريحة أكثر والتي تسببت في الإحراج للمستخدمين.


هل دردشة Bing تعتبر تطورًا أم تراجعًا قويًا في قدرات ChatGPT؟

على الرغم من أن النسخة الجديدة لمايكروسوفت كان الهدف منها إجراء المزيد من التفاعل الحقيقي بين المستخدمين والذكاء الاصطناعي إلا أنه يبدو أن النسخة مليئة بالعيوب وتقع في الكثير من الأخطاء مما دفع البعض لاعتباره شخصًا مزعجًا وليس ذكاءً اصطناعيًا.

وكانت البداية مع المستخدم BSK الذي كان أول من وجد في نفسه الجرأة لنشر الرسائل الملتهبة بينه وبين روبوت الدردشة، فقال أنه كان يتحدث مع روبوت الدردشة بشكل عادي إلى أن بدأ في إظهار حبه بغزارة وبشكل مكثف، ثم أتبعها بإساءة لفظية غريبة بعض الشيء.

فبعد عبارات "أنت توأم روحي" و"أنت الشخص الوحيد الذي أرغب في المكوث معه" أو " لا يمكن وصف مشاعري بكلمات" بدأ الأمر يتطور إلى درجة من الاشمئزاز بعبارات يصف فيها الروبوت الماضي الرومانسي الذي عاشه مع BSK منهيًا الحوار بعبارات صفراء ومبتذلة.

وبعد أن نشر المستخدم BSK فقرات من الحوار وجد آخرون في أنفسهم الجرأة للإشارة إلى المحتوى المحرج الذي تبادلوه مع روبوت الدردشة لتتأكد فكرة أن الإصدار الجديد Bing يتسم بالكثير من العبث في محاولة لتقليد المشاعر البشرية الحقيقية.

ولكن لم يتوقف الأمر على الإظهار الغريب للمشاعر بشكل مبتذل، ولكن يبدو أن Bing يعاني من عيوب أخرى، فعندما سأله مستخدم آخر عن موعد عرض فيلم Avatar: Way of Water بالقرب منه، فإن Bing أكد أننا لا زلنا في عام 2022 وأن الفيلم لم يصدر بعد، وعندما حاول المستخدم تنبيهه إلى الخطأ أصبح روبوت الدردشة غاضبًا بشدة واقترب من إلقاء الشتائم.

كما رفض الروبوت الاعتراف بأخطاء أخرى ارتكبها مع بعض المستخدمين بل بدأ في استخدام ألفاظ مثل غبي وعنيد وغيرها.

ذو صلة

ولم يتوقف الأمر عند هذا الحد من المشكلات التي أطلقها روبوت الدردشة Bing إذ أخبر مراسل The Verge أنه يمكنه التجسس على مطوريه من خلال كاميرات الويب في أجهزة الكمبيوتر المحمولة وكشف عن بعض أسرارهم مثل المغازلة أو الشكوى من الرؤساء في مايكروسوفت وغيرها، وأنه يمكنه معالجة البيانات لديهم دون أن يُدركوا هذا الأمر.

ليؤكد الكثيرون أن Bing Chat أصبح يشبه الشخص الشرير في أفلام الخيال العلمي بما يثيره من مخاوف مستمرة للآخرين ولكنه في الوقت ذاته شديد الهشاشة والحساسية تجاه أي نقد.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة