هل هذا الفيديو حقيقي؟ دليل مبسط لاكتشاف محتوى Sora المزيف

أراجيك
أراجيك

3 د

لم يعد من السهل معرفة إذا كان الفيديو حقيقيًا أو من إنتاج الذكاء الاصطناعي.

تطبيق "سورا" يجتاح التواصل الاجتماعي بمقاطع مصنوعة بالكامل بالذكاء الاصطناعي.

العلامات المائية والميتا داتا تُستخدم كأدوات لكشف المقاطع المزيفة.

تستلزم الشفافية من صانعي المحتوى الإفصاح عن استخدام الذكاء الاصطناعي لحماية الجمهور.

لم يعد من السهل أن تعرف إن كان ما تشاهده على شاشتك حقيقياً أم من إنتاج الذكاء الاصطناعي. ومع إطلاق تطبيق «سورا» من شركة «أوبن إيه آي» – الشقيقة لـ«شات جي بي تي» – أصبحت الحدود بين الواقع والخيال أكثر ضبابية من أي وقت سابق.


عوالم تولد من الخيال الرقمي

منذ طرح «سورا» بنسخته الأولى عام 2024، ثم تحديثه الكبير بإصدار «سورا 2»، اجتاح التطبيق عالم التواصل الاجتماعي مثل «تيك توك» و«إنستغرام». الفارق هنا أن كل المقاطع في «سورا» مصنوعة كلياً عبر الذكاء الاصطناعي، فلا وجود لممثلين أو كاميرات حقيقية، بل خوارزميات قادرة على توليد مشاهد بصرياً مبهرة وصوتياً متقنة.

التقنية الجديدة تضم ميزة شهيرة اسمها «كاميو» تتيح إدراج وجوه أشخاص حقيقيين في مقاطع خيالية، ما يضاعف الإحساس بالواقعية إلى حدٍ مخيف.

وهذا ما يشرح مخاوف الخبراء من تسونامي «الديب فيك» أو المقاطع المزيفة، إذ يمكن لأي مستخدم إنتاج فيديو مضلل خلال دقائق. وهنا تحديداً تتقاطع التحذيرات مع دعوات النقابات الفنية، مثل نقابة الممثلين الأميركية «SAG-AFTRA»، التي تطالب بتشديد القيود لحماية المشاهير والجمهور من استغلال صورهم بشكل غير قانوني.


العلامات المائية… أول دفاع ضد الزيف

يحمل كل مقطع صادر من تطبيق «سورا» علامة مائية صغيرة على شكل سحابة بيضاء متحركة، شبيهة بعلامة «تيك توك». وقد تبنت «أوبن إيه آي» هذه الطريقة كوسيلة بصرية لمساعدة الناس على تمييز محتوى الذكاء الاصطناعي. شركات أخرى مثل «غوغل» بدأت بفعل الشيء نفسه في نماذجها المرئية ضمن رؤية لتوثيق المحتوى، وهو جزء من تحالف «التحقق من أصالة المحتوى» C2PA.

ومع ذلك، فالعلامات المائية ليست حلاً نهائياً؛ يمكن قصّها أو استخدام تطبيقات تمحوها تماماً. ولذلك يرى المدير التنفيذي لـ«أوبن إيه آي»، سام ألتمان، أننا مقبلون على عصر يتعيّن فيه على الناس التكيف مع فكرة أن أي شخص قد يستطيع توليد فيديو مزيف لأي شخص آخر. وهنا تتضح الحاجة إلى وسائل تحقق متعددة وليس مجرد الثقة بما يظهر أمامنا.


ميتاداتا تكشف الأسرار الخفية

الخطوة التالية في كشف الزيف تكمن في فحص «الميتاداتا»، أي البيانات التقنية المرافقة لأي صورة أو فيديو: نوع الجهاز، تاريخ الالتقاط، أو حتى المصدر البرمجي.

جميع فيديوهات «سورا» تحتوي على بصمة رقمية تشير إلى أنها «صادرة من أوبن إيه آي»، ويمكن لأي مستخدم رفع المقطع إلى أداة التحقق التي أطلقتها مبادرة «المحتوى الأصيل» Content Authenticity Initiative لمعرفة المصدر. هذه العملية لا تحتاج إلى معرفة تقنية متقدمة، بل خطوات بسيطة عبر موقع إلكتروني.

لكن—وكما الحال دائماً في عالم التقنية—ليست هذه الأدوات معصومة من الخطأ. قد تُفلت بعض المقاطع خاصة إذا أعيد تعديلها عبر تطبيقات خارجية أو نُزعت منها بيانات المصدر. وهنا يظهر ربط طبيعي مع الجهود التي تبذلها منصات «ميتا» و«يوتيوب» و«تيك توك» لإضافة تصنيفات واضحة تُبيّن إن كان المحتوى مُنتجاً بالذكاء الاصطناعي.


شفافية المستخدم… خط الدفاع الأخير

في نهاية المطاف، لا شيء أصدق من الإفصاح الصريح. فحين يضيف صانع الفيديو عبارة بسيطة مثل «تم إنشاؤه باستخدام الذكاء الاصطناعي» يسهم في حماية المشاهدين من الخداع، ويزرع وعياً جماعياً ضرورياً في هذه المرحلة الانتقالية. منصات التواصل توفر بالفعل خياراً لوسم المنشورات بهذه الطريقة، لكن الالتزام يبقى تحدياً ثقافياً أكثر منه تقنياً.

وهذا يقودنا إلى جوهر القضية: «سورا» ليست مجرد تطبيق ترفيهي، بل تجربة تختبر حدود الإدراك البشري للواقع، وتجبرنا على التساؤل عن معنى «الحقيقة» في زمن الهوية الرقمية المولّدة آلياً.

ذو صلة

لا توجد وسيلة مضمونة لاكتشاف المحتوى المزيف بعينك المجردة، لكن الجمع بين الوعي والتحقق التقني واستخدام أدوات المصداقية يمكن أن يقلل خطر التضليل. في عصر امتلأت فيه الشبكات بالصور والفيديوهات الاصطناعية، ربما يكون أفضل سلاح هو الشك البنّاء: عندما يبدو شيء ما «غير واقعي»، فغالباً هو كذلك.

بهذه العقلية المتأنية فقط يمكننا الحفاظ على الثقة وسط طوفان الخداع البصري الذي تطلقه أدوات الذكاء الاصطناعي الحديثة.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة