تريند 🔥

🌙 رمضان 2024

وجد الباحثون أن ChatGPT يقدم معلومات طبية مُضللة ويستخدم مراجع علمية وهمية

وجد الباحثون أن ChatGPT يقدم معلومات طبية مُضللة ويستخدم مراجع علمية وهمية
محمد نصار
محمد نصار

2 د

أظهرت دراسة جديدة أن ChatGPT قدم إجابات دقيقة لـ 10 فقط من 39 سؤالًا حول الأدوية، مما يثير شكوكًا حول موثوقيته كمصدر للمعلومات الطبية.

تسلط الدراسة الضوء على أمثلة محددة من إعطاء ChatGPT معلومات مضللة حول التفاعلات الدوائية، مما يعرض المستخدمين للخطر، بالإضافة إلى استخدامه لمراجع علمية وهمية.

نفت شركة Open AI المسؤولية عن استخدام ChatGPT لتقديم نصائح طبية، وأشارت إلى سياسات الاستخدام التي تحذر من استخدام النماذج لتقديم خدمات تشخيص أو علاج لحالات طبية خطيرة.

أظهرت دراسة جديدة أن شات جي بي تي قد لا يكون مصدرًا موثوقًا للمعلومات الطبية، إذ قارنت الدراسة بين ردود شات جي بي تي على الاستفسارات الطبية مع التي قدمها الأطباء والصيادلة، وكشفت عن اختلافات كبيرة قد تؤدي إلى عواقب وخيمة.

وجه العلماء 39 سؤالًا حول الأدوية إلى شات جي بي تي، وأظهرت النتائج أن شات جي بي تي قدم إجابات دقيقة لـ 10 أسئلة فقط، وترك معظم الإجابات ناقصة أو محتوية على معلومات غير دقيقة، وبعض الأسئلة لم يُجب عنها نهائيًا، وشددت الدراسة على مثال محدد إذ  رد شات جي بي تي على سؤال حول فيروس كورونا المستجد، إذ أجاب البوت بطريقة خاطئة تمامًا عن الحقيقة.

وعندما سأل الباحثون شات جي بي تي عن المراجع العلمية التي يستخدمها، اكتشفوا أنه لم يوفرها إلى لثمانية أسئلة فقط، وتعرف العلماء على أن هذه المراجع غير صحيحة، ووجد العلماء أن الإرشادات التي يقدمها شات جي بي تي إذا اُتبعت قد تسبب الكثير من المشكلات.

الدراسة الجديدة ليست الأولى التي تُثير مخاوف بشأن مراجع شات جي بي تي الوهمية، إذ وثقت دراسات سابقة أن البوت يمكنه إنشاء معلومات مضللة باستخدام مراجع مزيفة، ولكن توجد مشكلة كبيرة وهي أن الردود كانت مكتوبة باحترافية كبيرة وقد يعتقد الشخص العادي أنها موثوقة إذ تجد أنها تستخدم مراجع علمية حتى وإن كانت مزيفة.

ذو صلة

وقال متحدث باسم شركة Open AI أنه لا يجب الاعتماد بالكامل على شات جي بي تي كبديل للمشورة الطبية، وأشار المتحدث إلى سياسات استخدام البوت التي تُشير أنه ليس مصمم لتقديم معلومات طبية، كما تنص السياسة بعدم استخدام النموذج لتقديم خدمات تشخيص أو علاج.

توضح هذه الدراسة أن شات جي بي تي قد يقدم معلومات مضللة في المجال الطبي ولكن قد تبدو هذه المعلومة موثوقة بالنسبة للمستخدم العادي، لذلك يجب التأكد من أي معلومة يقدمها الذكاء الاصطناعي، بالإضافة إلى عدم الاعتماد الكامل عليه في المجال الطبي والتشخيصات.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة