LEAP26

الذكاء الاصطناعي يُسهم في تصاعد خطير لصور الاعتداء على الأطفال

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

يشير التقرير إلى خطر متزايد في إنتاج محتوى اعتداء على الأطفال بالذكاء الاصطناعي.

ارتفعت نسبة المواد المُولَّدة بالذكاء الاصطناعي المصنفة كإعتداءات بنسبة 14٪ في عام 2025.

التكنولوجيا الحديثة تُصعِّب كشف المحتوى بسبب التقدم في نماذج التوليد والتقنيات البصرية.

تشمل التوصيات حظر أدوات الذكاء الاصطناعي المنتجة للمحتوى غير القانوني وتصنيفها كأنظمة عالية الخطورة.

التطور السريع في الذكاء الاصطناعي يمثل تحديًا أخلاقيًا وقانونيًا يتعلق بالاستخدامات المتعددة للتكنولوجيا.

لطالما ارتبط الخطر الرقمي بالمحتوى المقرصن أو حملات الاحتيال، لكن الخطر الأكثر إيلاماً اليوم يتشكل في مكان أكثر قتامة: صور وفيديوهات اعتداء على الأطفال تُنتج بالكامل بالذكاء الاصطناعي. تقرير حديث يكشف أن التكنولوجيا التي وُعدنا بأنها ستعيد تعريف الإبداع، أصبحت أيضاً أداة تولّد انتهاكات بلا حدود.


ارتفاع مقلق في المحتوى المُولّد

بحسب تقرير صادر عن مؤسسة Internet Watch Foundation البريطانية، ارتفع عدد المواد المصورة المُنتجة بالذكاء الاصطناعي والتي تُصنَّف كمحتوى اعتداء جنسي على الأطفال بنسبة 14 بالمئة خلال عام 2025. وتم رصد أكثر من 8000 صورة ومقطع فيديو عبر بلاغات المستخدمين فقط، وهو رقم تصفه المؤسسة بأنه مجرد جزء من الصورة الكاملة.

اللافت أن أكثر من 3400 من هذه المواد كانت فيديوهات كاملة الحركة شديدة الواقعية، تتيح تفاعلات معقدة بين شخصيات مُولّدة رقمياً. هنا لا نتحدث عن صور مشوشة أو بدائية، بل عن محتوى يصعب تقنياً التفريق بينه وبين التصوير الحقيقي.


تطوّر تقني يُعقّد مهمة الكشف

تعتمد المؤسسة في تصنيفها على مؤشرات مثل الأخطاء البصرية، أو اعترافات الضحايا، أو معلومات حول استخدام أدوات توليد الصور. لكن مع تطوّر نماذج التوليد العميق وتحسن قدرات المعالجة البصرية، تتقلص هذه المؤشرات شيئاً فشيئاً.

الذكاء الاصطناعي التوليدي اليوم قادر على إنتاج محتوى اعتماداً على صورة مرجعية واحدة فقط، دون حاجة إلى خبرة تقنية متقدمة. هذا يعني أن العتبة التقنية أصبحت منخفضة، وأن إنتاج مواد غير قانونية لم يعد حكراً على شبكات منظمة تملك مهارات برمجية متقدمة.


نواجه مشهداً تقنياً يمكنه توليد انتهاكات غير محدودة بسهولة غير مسبوقة، بحسب ما جاء في التقرير.


تصعيد في درجة العنف والوضوح

من بين المواد المُولّدة، صنّف أكثر من 65 بالمئة ضمن الفئات الأكثر تطرفاً وفق القانون البريطاني، وهي نسبة تفوق بكثير ما يُسجَّل في المحتوى غير المُولّد بالذكاء الاصطناعي. تشير هذه الفجوة إلى أن الأدوات الرقمية لا تُستخدم فقط لزيادة الكمية، بل أيضاً لتكثيف حدة العنف ودرجة الوضوح.

بعض المستخدمين في الشبكات المظلمة لا يكتفون بالاستهلاك، بل يطوّرون نماذج مخصصة ويتبادلون قواعد بيانات تدريب وأدلة استخدام. وقد وثّق التقرير حالات لأشخاص قدموا دورات تعليمية مدفوعة حول كيفية إنشاء صور اعتداء اصطناعية، ما يعكس نشوء اقتصاد موازٍ قائم على إساءة استغلال تقنيات التوليد.


حدود الرقابة والتشريع

المشكلة لا تقف عند الإنتاج، بل تمتد إلى صعوبة الرصد. فالمؤسسة تؤكد أنها لا تستطيع الوصول إلى المحتوى خلف الجدران المدفوعة أو داخل القنوات المشفرة، ما يعني أن الحجم الحقيقي لهذه المواد قد يكون أكبر بكثير.

على المستوى التنظيمي، يضغط التقرير باتجاه حظر أوسع يشمل ليس فقط المحتوى المُنتج، بل أيضاً أدوات الذكاء الاصطناعي القادرة على توليده، مع تصنيفها ضمن الأنظمة عالية الخطورة وفق الإطار الأوروبي للذكاء الاصطناعي. ورغم أن التشريعات الأوروبية تحظر بالفعل أي نظام يُستخدم صراحة لهذا الغرض، فإن التحدي الحقيقي يكمن في الأدوات العامة التي يمكن توجيهها لأغراض مشروعة أو إجرامية في آن واحد.

  • تمديد أوروبي مؤقت يسمح للمنصات بمواصلة كشف المحتوى المخالف.
  • دعوات لجعل اختبارات الامتثال أكثر صرامة قبل إتاحة النماذج داخل الاتحاد الأوروبي.
  • تحذير من توسيع الرقابة ليشمل المحادثات المشفرة بشكل شامل.

تكنولوجيا محايدة… استخدام غير محايد

ذو صلة

الذكاء الاصطناعي، كنظام حسابي لتوليد الصور والنصوص والفيديو، لا يحمل نية بطبيعته. لكن سهولة الوصول، وقابلية التخصيص، والانتشار السريع لنماذج مفتوحة المصدر، خلقت واقعاً تصبح فيه الحماية لاحقة للضرر لا سابقة له.

المفارقة أن التقنيات نفسها المستخدمة في صناعة الألعاب والأفلام والمؤثرات البصرية، تُستغل أيضاً في بيئات إجرامية مغلقة. وبينما تتقدم قدرات التوليد العميق بوتيرة متسارعة، يصبح السؤال أقل تعلقاً بالإمكانات التقنية، وأكثر ارتباطاً بالبنية الأخلاقية والتنظيمية التي ترافقها. فكل قفزة حسابية جديدة تحمل معها احتمالين متوازيين: تعزيز الإبداع، أو توسيع دائرة الأذى.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة