ASUS

الذكاء الاصطناعي يغير الملامح… وأداة تبديل الوجوه تهدد المستخدمين

ملاذ المدني
ملاذ المدني

3 د

مكالمات الفيديو بالذكاء الاصطناعي تمكِّن تبديل الوجه والصوت بالزمن الحقيقي، مثيرة للشكوك.

تقنيات التزييف العميق سهلة الاستخدام وتشكل خطرًا على الثقة الرقمية لدى المستخدمين.

الاستخدامات الأخلاقية للتقنية تشمل السينما والتعليم، بينما يواجه القانون تحديات تشريعية.

الشركات المطورة تقع تحت ضغط أخلاقي لضمان عدم استغلال تقنيات الذكاء الاصطناعي بطرق ضارة.

العالم التقني يشهد تقدمًا سريعًا، لكن التوازن بين الذكاء والإنسانية لم يُحسم بعد.

تخيل مكالمة فيديو عادية على شاشة حاسوبك. الوجه مألوف، الصوت دافئ، والحركات طبيعية لدرجة لا تثير أي شك. كل شيء يبدو حقيقيًا، إلى أن تكتشف لاحقًا أن الشخص لم يكن موجودًا فعليًا. هذه ليست حبكة خيال علمي، بل واقع تقني بات قريبًا من الاستخدام الواسع، مع صعود أدوات توليد الفيديو بالذكاء الاصطناعي وتقنيات تبديل الوجوه في الزمن الحقيقي.


تقنيات تبديل الوجوه تصل إلى المكالمات المباشرة

خلال الأشهر الماضية، بدأ باحثون ومستخدمون على منصات التواصل في رصد أدوات ذكاء اصطناعي قادرة على تبديل الوجه والصوت بشكل فوري أثناء مكالمات الفيديو. هذه النماذج تحلل تعابير الوجه وحركة الشفاه ونبرة الصوت لحظيًا، ثم تعيد إنتاجها على وجه شخص آخر، قد يكون شخصية عامة أو فردًا عاديًا التُقطت صورته من حساب على الشبكات الاجتماعية.

اللافت أن بعض هذه الأدوات لا تحتاج إلى بيانات غزيرة. صورة واحدة قد تكون كافية لبناء نموذج بصري مقنع، مع بضع ثوانٍ من الصوت لمحاكاة النبرة. هنا لم يعد التزييف العميق مقتصرًا على مقاطع مسجلة، بل دخل مجال التفاعل الحي، حيث يثق البشر عادة بما يرونه ويسمعونه مباشرة.


الاحتيال الرقمي يغيّر جلده

مع كل قفزة في تقنيات الذكاء الاصطناعي، يبحث المحتالون سريعًا عن طرق للاستفادة منها. مكالمة فيديو بوجه حفيد أو صديق قد تكون أكثر إقناعًا من أي رسالة نصية أو اتصال صوتي. كبار السن تحديدًا يصبحون هدفًا سهلًا، لأن فكرة أن الصورة المتحركة قد تكون مزيفة بالكامل ما تزال غريبة عليهم.

الخطورة هنا لا تكمن فقط في الخسائر المالية، بل في تآكل الثقة الرقمية. حين يبدأ الناس في الشك بكل مكالمة فيديو، تصبح أدوات التواصل نفسها عبئًا نفسيًا بدل أن تكون وسيلة طمأنينة وتقارب.


بين التقدم التقني والمسؤولية الأخلاقية

تقنيات توليد الفيديو والوجوه الاصطناعية ليست شريرة بطبيعتها. يمكن استخدامها في السينما، والتعليم، وخدمة العملاء، وحتى في تمكين الأشخاص من الظهور بهوية بصرية مختلفة لأسباب مشروعة. المشكلة تبدأ عندما تتقدم القدرات أسرع من القوانين ومن وعي المستخدمين.

غياب معايير واضحة لكشف المحتوى المزيّف، أو بصمات رقمية إجبارية تميّز الفيديو الاصطناعي، يفتح الباب لاستخدامات مظلمة. وهنا يظهر سؤال أعمق حول دور الشركات المطوّرة: هل يكفي بناء أدوات قوية، أم يجب أيضًا ضمان ألا تتحول إلى وسائل إيذاء؟


المشهد الأوسع للذكاء الاصطناعي اليوم

تبديل الوجوه ليس ظاهرة معزولة، بل جزء من موجة أوسع يشهدها الذكاء الاصطناعي، حيث يتم التركيز بقوة على القدرات الحسابية والاستدلالية على حساب الجوانب الإنسانية مثل التعبير والكتابة الطبيعية. هذا التوازن المختل يجعل الأدوات أذكى تقنيًا، لكنها أكثر برودًا وأحيانًا أقل قابلية للثقة.

ذو صلة

في الوقت نفسه، تتعرض شركات الذكاء الاصطناعي لضغوط قانونية وأخلاقية متزايدة، بسبب عجز بعض النماذج عن التعامل الحساس مع البشر في مواقف خطيرة. النتيجة عالم تقني متقدم جدًا، لكنه لم يحسم بعد علاقته مع المسؤولية الاجتماعية.

نحن أمام مرحلة يصبح فيها الوجه والصوت مجرد بيانات قابلة للتوليد والتعديل. التقنية ستواصل التقدم، هذا شبه مؤكد. ما ليس مؤكدًا هو ما إذا كان وعي المستخدمين، والتشريعات، وأخلاقيات التطوير ستلحق بها بالسرعة الكافية، قبل أن تصبح الحقيقة الرقمية نفسها موضع شك دائم.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة