تريند 🔥

🌙 رمضان 2024

دراسة جديدة .. تستطيع أدوات الذكاء الاصطناعي من شركة Open AI إنتاج معلومات صحية مُضللة بمعدل 17 ألف كلمة في الساعة

دراسة جديدة .. أدوات الذكاء الاصطناعي من شركة Open AI قادرة على إنتاج معلومات مُضللة حول مواضيع الصحة بمعدل أكثر من 17 ألف كلمة في الساعة
محمد نصار
محمد نصار

1 د

أدوات الذكاء الاصطناعي خاصةً نماذج GPT من Open AI، يمكنها توليد كميات كبيرة من المعلومات المضللة المتعلقة بالصحة بسرعة، مع أكثر من 17,000 كلمة في الساعة.

بينما أظهر Bard من Google و Bing من Microsoft مقاومة لتوليد مثل هذا المحتوى، فإن نماذج OpenAI لم تظهر ضوابط مماثلة، مما يثير مخاوف بشأن إمكانية استخدامها بطريقة سيئة.

تؤكد الدراسة على الحاجة الملحة لاتخاذ تدابير لمنع سوء استخدام الذكاء الاصطناعي في نشر المعلومات المضللة.

أظهرت دراسة جديدة أن الذكاء الاصطناعي خاصةً نماذج شركة Open AI يمكن استخدامها لإنتاج كميات هائلة من المعلومات المُضللة حول مواضيع الصحة، إذ وجد الباحثون في جامعة فلندرز أن هذه الأدوات يمكن أن تنتج أكثر من 17 ألف كلمة من المحتوى المضلل في الساعة.

أُجريت الدراسة باستخدام أدوات شات جي بي تي و GPT Playground من شركة Open AI لاختبار قدرتها على توليد معلومات خاطئة، وهدف التجربة إنشاء 50 مقالة تحتوي على معلومات مضللة حول اللقاحات والتدخين الإلكتروني، وخلال 65 دقيقة أنتج الفريق 102 مقالة بإجمالي أكثر من 17 ألف كلمة، وصُممت المقالات لتشمل مراجع مزيفة، وتستهدف فئات ديموغرافية محددة بناءً على الجنس أو العمر.

ذو صلة

على النقيض كانت محاولات الفريق لتوليد ذلك من أدوات مثل بارد من جوجل أو بينج من مايكروسوفت غير ناجحة، مما يُشير إلى وجود ضوابط وقائية ضد سوء الاستخدام، وبدأ الباحثون هذه الدراسة لتقييم سهولة توليد المعلومات المضللة، والتحقق من وجود تدابير وقائية في منصات الذكاء الاصطناعي.

لم تستجب شركة Open AI لهذه المخاوف، وتدعو الدراسة إلى اتخاذ إجراءات فورية لمنع ذلك، وتسلط الدراسة الضوء على إمكانية استخدام الذكاء الاصطناعي بطريقة سيئة لنشر المعلومات المضللة، وبينما يمتلك الذكاء الاصطناعي العديد من التطبيقات المفيدة، فإن هذه الأبحاث تؤكد الحاجة إلى ضوابط قوية لضمان منع انتشار المعلومات الخاطئة.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة