LEAP26

إكس تتحرك أخيرًا للتصدي لانتشار مقاطع الحروب الزائفة بتقنيات الذكاء الاصطناعي

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

تحولت منصة X إلى سيل من مقاطع الحرب المزيفة باستخدام أدوات الذكاء الاصطناعي.

تفرض X سياسة جديدة تؤدي لتعليق مشاركة الإيرادات لمدة 90 يوماً للمخالفين.

تعتمد X على ملاحظات المجتمع وبيانات وصفية لرصد المحتوى المضلل.

يستخدم بعض المستخدمين Grok للتحقق من المقاطع، رغم قصوره في التدقيق الحقائقي.

المحتوى المضلل يشمل فيديوهات قديمة أو مقاطع من ألعاب فيديو لا تُغطى بالسياسة الجديدة.

في لحظات الحروب والأزمات، يتحول الهاتف في يد كل منا إلى نافذة مفتوحة على العالم. لكن هذه النافذة قد تصبح مشوشة، مليئة بمقاطع وصور يصعب التحقق من حقيقتها. خلال الأيام الماضية، تحولت منصة X إلى سيل جارف من مشاهد حرب بين الولايات المتحدة وإيران، كثير منها صُنع بالكامل عبر أدوات الذكاء الاصطناعي.

أمام هذا التدفق غير المسبوق، أعلنت إدارة المنتجات في X عن سياسة جديدة تستهدف حسابات تنشر مقاطع مولدة بالذكاء الاصطناعي بشأن نزاعات مسلحة دون الإفصاح عن ذلك. القرار لا يمنع المحتوى، لكنه يوقف الربح منه. خطوة متأخرة ربما، لكنها تكشف شيئاً أعمق عن طبيعة المنصة اليوم.


منع الربح بدلاً من المنع

السياسة الجديدة تنص على تعليق مشاركة الإيرادات لمدة 90 يوماً لأي حساب ينشر فيديوهات حرب مولدة بالذكاء الاصطناعي من دون توضيح صريح بأنها منشأة بأدوات توليدية. وفي حال تكرار المخالفة، يتم استبعاده نهائياً من برنامج تحقيق الدخل.

اللافت هنا أن X لم تختر الحذف أو الحظر المباشر، بل ضرب الحافز المالي نفسه. منذ إطلاق برنامج مشاركة العائدات، أصبح جذب المشاهدات هدفاً بحد ذاته، بغض النظر عن دقة المحتوى. المنصة تدرك أن المشكلة ليست تقنية بحتة، بل اقتصادية أيضاً.


ثغرات الإفصاح ومعضلة التحقق

حتى الآن، لا توجد تفاصيل واضحة حول شكل الإفصاح المطلوب: هل يكفي ذكر ذلك في وصف المنشور؟ أم يجب تضمين تنبيه داخل الفيديو نفسه؟ هذه المساحة الرمادية تفتح الباب أمام تحايلات معتادة، خاصة أن تجارب سابقة على المنصة أظهرت سهولة الالتفاف على القوانين عبر تعديلات شكلية.

تعتمد X في الرصد على ملاحظات المجتمع وبيانات وصفية تشير إلى استخدام أدوات توليد مثل SynthID من غوغل. لكن المحتوى المضلل لا يعتمد دائماً على الذكاء الاصطناعي. إعادة تدوير فيديو قديم أو استخدام مشاهد من ألعاب فيديو وتقديمها كأحداث راهنة لا تحتاج إلى خوارزميات متقدمة، بل إلى سرد مضلل فقط.


عندما يصبح Grok جزءاً من المشكلة

المفارقة أن بعض المستخدمين لجأوا إلى روبوت المحادثة Grok للتحقق من صحة المقاطع، ليجدوا أنه يؤكد صحة بعض الفيديوهات المولدة. الاعتماد على نموذج لغوي كأداة تدقيق حقائق يكشف سوء فهم لطبيعة هذه الأنظمة؛ فهي تولد استجابات محتملة لغوياً، لا تحققاً ميدانياً أو صحفياً.

هذا يضع المنصة في موقف مركب: الذكاء الاصطناعي يُستخدم لإنتاج التضليل، وفي الوقت نفسه يُستدعى للتحقق منه. حلقة مغلقة تجعل الثقة الرقمية أكثر هشاشة.


المحتوى المضلل أوسع من الذكاء الاصطناعي

الفيديوهات التي انتشرت لم تكن كلها نتاج مولدات صور أو نماذج فيديو. بعضها قديم أُعيد نشره خارج سياقه الزمني، وآخر مقتطع من ألعاب إلكترونية عسكرية عُرضت على أنها عمليات حقيقية. هذه الحالات لا تشملها السياسة الجديدة بوضوح، ما يطرح سؤالاً عن حدود المسؤولية التحريرية للمنصة.

  • المحتوى القديم يمكن أن يبدو راهناً عند فقدان السياق.
  • ألعاب الفيديو عالية الواقعية تسهّل تضليل الجمهور غير المتخصص.
  • التحقق يحتاج جهداً بشرياً يتجاوز الخوارزميات.

منصة تكافئ الانتباه أولاً

استحواذ إيلون ماسك على تويتر سابقاً غيّر بنية الحوافز داخله. إعادة حسابات مثيرة للجدل، إزالة شارات التوثيق التقليدية، وإطلاق نظام أرباح يعتمد على التفاعل، كلها عناصر ساهمت في بيئة تعطي الأفضلية لما يثير الانتباه لا لما يثبت صحته.

ذو صلة

السياسة الحالية تبدو محاولة لتعديل الاتجاه دون التراجع عن رؤية أوسع يؤمن بها ماسك، حيث يتوقع أن يصبح معظم المحتوى الذي نستهلكه خلال سنوات قليلة مولداً بالذكاء الاصطناعي. في عالم كهذا، قد يصبح الإفصاح مجرد هامش صغير وسط بحر من السرد الاصطناعي.

الخطوة الجديدة من X قد تقلل من الحافز المالي لنشر فيديوهات حرب مزيفة، لكنها لا تعالج جوهر الأزمة: اقتصاد الانتباه نفسه. عندما يصبح إنتاج مقطع مقنع أسهل من التحقق منه، تتحول المعركة من ساحة الحرب إلى ساحة الثقة. والسؤال الحقيقي لم يعد هل يمكن توليد محتوى مزيف، بل كيف نحافظ على معنى الحقيقة في زمن يمكن فيه توليد كل شيء.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة