ذكاء اصطناعي يورط جدة من تينيسي في السجن بسبب خطأ التعرف على الوجه
أُعتقلت أنجيلا ليبس بعد أن أخطأت خوارزمية في تعريفها كمشتبه بها في جريمة.
اعتمد الاتهام على "التعرف على الوجوه" رغم افتقاده للأدلة والشهود.
أمضت ليبس أشهرًا في السجن قبل أن تكشف الأدلة براءتها.
التقنيات البيومترية تواجه انتقادات بسبب الأخطاء والتحيزات في إنفاذ القانون.
الثقة بالتكنولوجيا تتطلب تحققًا بشريًا وتدخلات للتأكد من حقيقتها وعدالتها.
أن يُطرق باب منزلك بينما ترعى أحفادك، ثم تجد نفسك مقيّداً ومتهماً بجرائم لم تسمع بها من قبل، هو كابوس لا يبدأ من فيلم بوليسي بل من خوارزمية. هذا ما عاشته أنجيلا ليبس، جدة من تينيسي، بعدما ربط نظام تعرّف على الوجوه بين صورتها وتحقيق احتيال مصرفي في ولاية لم تطأها قدماها قط.
حين تخون الخوارزمية الثقة
بحسب تقرير لصحيفة الغارديان، أمضت ليبس نحو ستة أشهر خلف القضبان بعد أن اعتمدت شرطة فارجو في داكوتا الشمالية على برنامج ذكاء اصطناعي لتحليل لقطات كاميرات المراقبة. النظام اعتبرها مطابقة لمشتبه بها استخدمت هوية عسكرية مزيفة لسحب عشرات الآلاف من الدولارات.
الاتهام لم يستند، وفق محاميها، إلا إلى نتيجة نظام التعرّف على الوجوه وبعض الملاحظات حول “تشابه الملامح وبنية الجسد وتسريحة الشعر”. لا شهود، لا سجل تنقلات، ولا تواصل مسبق مع المتهمة قبل تنفيذ الاعتقال.
تكلفة الخطأ لا تدفعها الخوارزمية
بقيت ليبس أكثر من ثلاثة أشهر في سجن تينيسي بانتظار نقلها، ثم أُرسلت جواً إلى داكوتا الشمالية. أُفرج عنها لاحقاً بعد أن قدّم محاميها سجلات مصرفية تثبت وجودها على بُعد أكثر من 1200 ميل وقت وقوع الجرائم. الأدلة الرقمية البسيطة التي كان يمكن التحقق منها مبكراً، جاءت متأخرة.
خلال تلك الفترة، فقدت منزلها وسيارتها وحتى كلبها لعدم قدرتها على سداد الالتزامات. التكنولوجيا هنا لم تُخطئ فقط في التعرف على وجه، بل أعادت تشكيل حياة كاملة بناء على تطابق حسابي غير دقيق.
مشكلة أعمق من حالة فردية
القضية ليست الأولى. تقنيات التعرف البيومتري والذكاء الاصطناعي في إنفاذ القانون تواجه انتقادات متزايدة بسبب نسب الخطأ والتحيّزات الكامنة في بيانات التدريب. أنظمة الرؤية الحاسوبية تعتمد على خوارزميات مطابقة تقيس احتمالات، لكنها تُستخدم أحياناً كما لو كانت تقدم يقيناً.
الخلل لا يكمن في وجود التقنية بحد ذاتها، بل في طريقة دمجها داخل مسار التحقيق. عندما تتحول نتيجة آلية إلى أساس لإجراء قانوني صارم، دون تحقق بشري متعدد الطبقات، يصبح الخطأ التقني خطأً قضائياً.
من أداة مساعدة إلى دليل اتهام
تاريخياً، صُممت أنظمة التعرف على الوجه كأداة دعم، لتضييق نطاق البحث لا لحسمه. غير أن ضغوط العمل وتسارع تبني حلول الذكاء الاصطناعي داخل أجهزة الشرطة جعلا بعض الجهات تتعامل مع المخرجات بوصفها دليلاً أولياً كافياً.
إذا كان كل ما لديك هو تطابق وجهي، فربما يجدر بك أن تبحث أعمق.
هذه العبارة التي نقلها التقرير عن محامي ليبس تختصر جوهر المسألة: التقنية تحتاج دائماً إلى سياق تحقق، وتقاطعات بيانات، ومراجعة بشرية ناقدة، لا تصديقاً أعمى.
الثقة الرقمية على المحك
اعتماد الذكاء الاصطناعي في الأمن والرقابة يتوسع بسرعة، من الكاميرات الذكية إلى أنظمة كشف السلوكيات المشبوهة. لكن كل حالة خطأ معلَنة تعيد طرح سؤال الموثوقية والعدالة. هل توجد معايير واضحة لاختبار الدقة؟ من يراقب أداء الخوارزميات؟ وكيف يُعوَّض من تضرر بسبب خلل تقني؟
- نتائج المطابقة هي احتمالات إحصائية وليست حقائق مطلقة.
- جودة البيانات وتنوعها تحددان مستوى الانحياز والدقة.
- غياب الشفافية في عمل الأنظمة يعقّد المساءلة.
ما حدث مع أنجيلا ليبس ليس مجرد قصة خطأ حسابي، بل تذكير بأن إدخال الذكاء الاصطناعي إلى منظومة العدالة يفرض مسؤولية مضاعفة. فالخوارزمية قد تتعلم من البيانات، لكن المجتمع هو من يدفع ثمن قراراتها عندما تتحول “نسبة تطابق” إلى سلب حرية إنسان.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








