Gemini الأسوأ وPerplexity الأفضل نسبيًا.. أنظمة الذكاء الاصطناعي تُسيء عرض الأخبار بغضّ النظر عن اللغة أو البلد

أراجيك
أراجيك

3 د

أطلقت هيئة الإذاعة الأوروبية (EBU) بقيادة هيئة الإذاعة البريطانية (BBC) أضخم دراسة من نوعها حول مدى دقة المساعدات الذكية في نقل الأخبار، لتكشف نتائج مقلقة بشأن مصداقية هذه التقنية التي يعتمد عليها ملايين المستخدمين يومياً كمصدر رئيسي للمعلومة.

من خلال بحث شامل شمل 22 مؤسسة إعلامية عامة في 18 دولة وبـ14 لغة مختلفة، توصل الخبراء إلى أن المساعدات الذكية مثل “شات جي بي تي” و“كوبايلوت” و“جيمِني” و“بيربلكسيتي” تُقدّم محتوى إخباريّاً تحريفياً أو ناقصاً في 45% من إجاباتها، بغض النظر عن اللغة أو السوق المحلي المستخدم فيه التطبيق.

وهذا يسلّط الضوء على مشكلة متنامية في بيئة الإعلام الرقمي، حيث أصبحت هذه الأنظمة تحل تدريجياً محل محركات البحث التقليدية في تلقي الأخبار.


القلق يتصاعد حول ثقة المستخدمين في المحتوى

بحسب تقرير "رويترز للأخبار الرقمية 2025"، يعتمد نحو 7% من مستخدمي الأخبار عبر الإنترنت على المساعدات الذكية كمصدر أساسي، وترتفع النسبة إلى 15% بين الشباب دون الخامسة والعشرين. ويقول جان فيليب دو تِندر، مدير الإعلام في الـEBU ونائب المدير العام، إن انتشار هذه الأخطاء يشكّل تهديداً حقيقياً للثقة العامة، مضيفاً أن "حين لا يعرف الناس ما يمكن تصديقه، يمكن أن يفقدوا الثقة بكل شيء، وهو ما ينعكس سلباً على المشاركة الديمقراطية".

من جهته، يرى بيتر آرتشر، مدير برنامج الذكاء الاصطناعي التوليدي في BBC، أن الذكاء الاصطناعي يمثل فرصة واعدة لخدمة الجمهور، لكنه يشدد على أن الشفافية والدقة تبقيان الأساس. ويضيف:


"نرغب في نجاح هذه الأدوات، ومستعدون للتعاون مع مطوريها حتى تقدّم فائدة حقيقية للمجتمعات".

وهذا يدفع النقاش إلى خطوة تالية أكثر عملية، حيث تحاول المؤسسات الإعلامية دعم تطوير أدوات تصحيحية لمعالجة الخلل القائم.


أدوات جديدة لتعزيز نزاهة الأخبار في الذكاء الاصطناعي

كجزء من المشروع، أطلق الفريق البحثي ما يسمى “عدة نزاهة الأخبار في المساعدات الذكية”، وهي وثيقة إرشادية تساعد في تحسين طريقة تعامل تلك الأنظمة مع الأخبار المتعلقة بالمعلومات الحساسة. تشمل التوصيات تعزيز مهارات القراءة النقدية لدى المستخدمين وتحسين خوارزميات توليد الردود لتوفير سياق ومصدر دقيقين. وتركّز العدة على سؤالين رئيسيين: ما الذي يجعل ردّ المساعد الذكي جيداً عند الإجابة عن سؤال إخباري؟ وما هي أبرز الثغرات التي ينبغي إصلاحها؟

ويأتي هذا مع دعوات متزايدة من الـEBU وشركائها للاتحاد الأوروبي والهيئات الوطنية بضرورة تطبيق القوانين الحالية الخاصة بنزاهة المعلومات وتعددية الإعلام ومراقبة الخدمات الرقمية.

وهذا يربط نتائج البحث بالدور الرقابي والتنظيمي الذي ترغب المؤسسات الإعلامية في ترسيخه مع تطور الذكاء الاصطناعي المتسارع.


نتائج وتداعيات أبعد من الأرقام

الدراسة الأخيرة بُنيت على بحث بريطاني أجرته BBC مطلع 2025، وكشف للمرة الأولى عن أن مشكلات فهم ونقل الأخبار من قبل المساعدات الذكية ليست محصورة في لغة أو منطقة معينة. كما أظهرت أن نسبة كبيرة من المستخدمين يثقون تلقائياً بمخرجات هذه الأنظمة؛ فثلث البالغين في المملكة المتحدة يعتقدون أن المساعدات الذكية تقدّم ملخصات دقيقة، وترتفع النسبة إلى نحو نصف الفئة العمرية دون الخامسة والثلاثين.

وتكمن الخطورة، بحسب الخبراء، في أن الأخطاء الناتجة عن الذكاء الاصطناعي تُحسب غالباً على المؤسسات الإخبارية نفسها، ما يضر بسمعتها رغم أن مصدر الخلل هو التكنولوجيا، لا المحتوى الأصلي.


نحو ثقافة رقمية أكثر وعياً

ختاماً، توضح الدراسة أن الطريق إلى إعلام مدعوم بالذكاء الاصطناعي لا بد أن يمر عبر مسؤوليّة مشتركة تجمع المطورين والمنصات والصحفيين والجمهور على حد سواء. إدماج مبادئ الشفافية وتدقيق المصادر والرقابة المستمرة سيضمن أن تبقى المعلومة أداة للتنوير لا التضليل، وأن يظل القارئ واثقاً مما يقرأ في عالم تزداد فيه خوارزميات الذكاء الاصطناعي حضوراً وتأثيراً.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.