0

من عمليات البحث على جوجل ومواقع المواعدة إلى اكتشاف الاحتيال على بطاقات الائتمان، يستمر الذكاء الاصطناعي في إيجاد طرق جديدة للتسلل إلى حياتنا. لكن هل يمكننا الوثوق بالخوارزميات التي تقودها؟ أم أننا ضحية تحيز الخوارزميات؟

كبشر، نحن نرتكب الأخطاء، ويمكن أن يكون لدينا ثغرات في الانتباه وإساءة تفسير المعلومات. ومع ذلك، عندما نعيد التقييم، يمكننا تحديد أخطائنا وتصحيحها. ولكن عندما يرتكب نظام الذكاء الاصطناعي خطأ ما، فإنه سيتكرر مراراً وتكراراً بغض النظر عن عدد المرات التي ينظر فيها إلى نفس البيانات في نفس الظروف.

يتم تدريب أنظمة الذكاء الاصطناعي باستخدام البيانات التي تعكس الماضي حتماً. فإذا كانت مجموعة بيانات التدريب تحتوي على تحيزات متأصلة من القرارات البشرية السابقة، فإن هذه التحيزات يتم تعميقها وتضخيمها بواسطة النظام. أو إذا كانت تحتوي على بيانات أقل عن مجموعة أقلية معينة، فإن التنبؤات لتلك المجموعة ستميل إلى أن تكون أسوأ. وهذا ما يسمى بـ«التحيّز الخوارزمي».

شارك باحثو معهد جراديينت الأسترالي في تأليف ورقةٍ بحثيةٍ توضح كيف يمكن للشركات تحديد التحيز الخوارزمي في أنظمة الذكاء الاصطناعي، وكيف يمكنهم التخفيف منه. إذ تم إنتاج العمل بالتعاون مع اللجنة الأسترالية لحقوق الإنسان، ومركز «أبحاث سياسة المستهلك»، ومنظمة «Data61» التابعة لهيئة البحوث الأسترالية، ومجموعة «CHOICE» للمحاماة.

كيف ينشأ التحيّز الخوارزمي؟

تحيز الخوارزميات algorithmic bias

قد ينشأ التحيز الخوارزمي من خلال نقص بيانات التدريب المناسبة، أو نتيجة تصميم أو تكوين نظام غير مناسب. على سبيل المثال، عادةً ما يتم تدريب النظام الذي يساعد البنك على تحديد منح القروض من عدمه باستخدام مجموعة كبيرة من البيانات لقرارات القروض السابقة للبنك (والبيانات الأخرى ذات الصلة التي يمكن للبنك الوصول إليها).

حيث يمكن للنظام مقارنة التاريخ المالي لمقدّم طلب القرض الجديد وتاريخ التوظيف والمعلومات الديموغرافية مع المعلومات المقابلة من المتقدمين السابقين. من هذا المنطلق، يحاول توقّع ما إذا كان مقدم الطلب الجديد سيتمكّن من سداد القرض أم لا.

لكن هذا النهج يمكن أن يكون مشكلة بحدّ ذاته. تتمثّل إحدى الطرق التي يمكن أن ينشأ بها تحيز الخوارزميات في هذه الحالة في التحيز اللاواعي من مديري القروض الذين اتخذوا قراراتٍ سابقة بشأن طلبات الرهن العقاري على سبيل المثال لعملاءٍ معينين.

وإذا تم رفض قروض العملاء من الأقليات بشكل متحيز ظالم في الماضي، فسوف يعتبر الذكاء الاصطناعي أن قدرة السداد العامة لهذه المجموعات أقل مما هي عليه الآن. والشباب اليافعين والأشخاص ذوي البشرة الملونة، والنساء العازبات، والأشخاص ذوو الإعاقة ليسوا سوى بعض الأمثلة على المجموعات التي قد تكون متضررةً بفعل هذا النهج.

ولا يقتصر ضرر التحيّز الخوارزمي على الأشخاص فحسب، بل يطال الشركات والمؤسسات كذلك. إذ يشكل نظام الذكاء الاصطناعي المتحيز الموصوف أعلاه خطرين رئيسيين على البنك؛ أولاً، قد يفقد البنك عملاء محتملين، بإرسال ضحايا التحيز إلى بنوك منافسة. كما يمكن تحميله المسؤولية بموجب قوانين مكافحة التمييز.

كما إذا طبق نظام الذكاء الاصطناعي التحيز المتأصل باستمرار في قراراته، سيصبح من السهل على الحكومة أو مجموعات المستهلكين تسليط الضوء هذا النمط المنهجي. وهذا يمكن أن يؤدي إلى غرامات وعقوبات باهظة.

 أمثلة على تحيّز الخوارزميات ضد البشر

تحيز الخوارزميات algorithmic bias

«كومباس» هي خوارزمية مستخدمة على نطاق واسع في الولايات المتحدة لتوجيه الأحكام من خلال التنبؤ باحتمالية إعادة ارتكاب جريمة. وربما في أكثر الحالات شهرة من التحيز ضد الذكاء الاصطناعي، في مايو/أيام عام 2016، ذكرت منظمة الأخبار الأمريكية «ProPublica» أن كومباس متحيزة عنصرياً. إذ أنه وفقاً للتحليل، يتنبأ النظام بأن المتهمين السود يشكلون خطراً أكبر من حيث العودة إلى الإجرام، والعكس بالنسبة للمتهمين البيض. بينما اعترضت على ذلك شركة «Equivant»، الشركة التي طورت البرنامج.

وبينما يتزايد استخدام برمجيات التعرف على الوجوه في إنفاذ القانون وجد باحثون من معهد ماساتشوستس للتكنولوجيا أن ثلاثة من أحدث أنظمة الذكاء الاصطناعي للتعرف على الجنس، مُقدمة من شركات مايكروسوفت و «آي بي إم» والشركة الصينية «Megvii»، يمكنها تحديد جنس الشخص بشكل صحيح من صورة في 99% من الحالات، ولكن فقط للرجال البيض. أما بالنسبة للنساء ذوات البشرة الداكنة، انخفضت الدقة إلى 35% فقط.

وهذا يزيد من خطر التعرّف الزائف على النساء والأقليات. مرة أخرى، ربما يرجع ذلك إلى البيانات التي يتم تدريب الخوارزميات عليها؛ فإذا كانت تحتوي على رجال بيض أكثر من النساء السود، فسيكون من الأفضل تحديد الرجال البيض. لكن على أي حال، أعلنت شركة «آي بي إم» بسرعة أنها أعادت تدريب نظامها على مجموعة بيانات جديدة، وقالت مايكروسوفت إنها اتخذت خطوات لتحسين الدقة.

وأظهرت دراسة أجريت عام 2015 أنه في بحث صور جوجل عن كلمة “CEO”، كان 11% فقط من الأشخاص الذين تم عرضهم من النساء، على الرغم من أن 27% من الرؤساء التنفيذيين في الولايات المتحدة هم من النساء. بعد بضعة أشهر، وجدت دراسة منفصلة بقيادة جامعة كارنيجي ميلون أن نظام الإعلان عبر الإنترنت من جوجل أظهر وظائف عالية الدخل للرجال أكثر من النساء.

وبررت جوجل ذلك بأنه يمكن للمعلنين تحديد عرض إعلاناتهم فقط لمستخدمين معينين أو على مواقع ويب معينة. إذ تسمح الشركة لعملائها باستهداف إعلاناتهم على أساس الجنس. لكن الباحثون طرحوا أيضاً فكرة أن خوارزمية جوجل كان من الممكن أن تحدد أن الرجال أكثر ملاءمة للمناصب التنفيذية بمفردها، بعد أن تعلمت ذلك من سلوك مستخدميها؛ فإذا كان الأشخاص الوحيدون يشاهدون الإعلانات وينقرون عليها للوظائف عالية الأجر من الرجال، ستتعلم الخوارزمية إظهار تلك الإعلانات للرجال فقط.

كيف يمكن التخفيف من تحيّز الخوارزميات ضدنا

تحيز الخوارزميات

تستكشف الأبحاث عدة طرق يمكن أن ينشأ بها تحيز الخوارزميات. كما أنها توفّر إرشادات تقنية حول كيفية إزالة هذا التحيز، مما يسمح لأنظمة الذكاء الاصطناعي التوصل إلى نتائج أخلاقية لا تنحاز بناءً على خصائص مثل العرق أو لون البشرة أو العمر أو الجنس أو الإعاقة.

بالنسبة إلى إحدى الأوراق البحثية، أجرى الباحثون محاكاة لبائع تجزئة افتراضي لمستلزمات الكهرباء وأدواتها باستخدام أداة تعمل بالذكاء الاصطناعي لتحديد كيفية تقديم المنتجات للعملاء وبأي شروط. وتمّ تدريب المحاكاة على بيانات تاريخية خيالية تتكون من أفراد خياليين.

بناءً على النتائج، تم تحديد خمس طرق لتصحيح التحيز الخوارزمي. إذ يمكن تطبيق مجموعة الأدوات هذه على الشركات عبر مجموعة من القطاعات للمساعدة في ضمان أن تكون أنظمة الذكاء الاصطناعي عادلة ودقيقة:

الحصول على بيانات أفضل

يمكن الحد من خطر تحيز الخوارزميات من خلال الحصول على نقاط بيانات إضافية أو أنواع جديدة من المعلومات عن الأفراد، وخاصة أولئك الذين تم تمثيلهم بمجموع أقل من البقية (أي الأقليات) أو أولئك الذين قد يظهرون بشكلٍ غير دقيق في البيانات الموجودة.

المعالجة المسبقة للبيانات

يتكون هذا من تحرير مجموعة بيانات لإخفاء أو إزالة معلومات حول السمات المرتبطة بالحماية بموجب قانون مكافحة التمييز والتي لا تُشكل أي فرق بالنسبة للأشخاص المُدرجين في قاعدة البيانات، مثل العرق أو الجنس.

زيادة تعقيد النموذج

يمكن أن يكون نموذج الذكاء الاصطناعي الأبسط أسهل في الاختبار والمراقبة والاستجواب. لكنه قد يكون أقل دقة ويؤدي إلى تعميمات تفضل الأغلبية على الأقليات.

تعديل النظام

يمكن تعديل منطق ومعلمات نظام الذكاء الاصطناعي بشكل استباقي لمواجهة التحيز الخوارزمي بشكلٍ مباشر. على سبيل المثال؛ يمكن القيام بذلك عن طريق تحديد عتبة قرار مختلفة ومخصصة تستهدف مجموعةً محددة من المجموعات المحرومة أو المتضررة.

تغيير هدف التنبؤ

يؤثر الإجراء المحدد الذي تم اختياره لتوجيه نظام الذكاء الاصطناعي بشكل مباشر في كيفية اتخاذ القرارات عبر المجموعات المختلفة. إذ أن العثور على مقياس أكثر عدلاً يتم استخدامه كهدفٍ للتنبؤ من شأنه أن يقلّل من تحيز الخوارزميات.

تحسين عدالة قرارات الخوارزميات

تحيز الخوارزميات

إن خوارزميات الآلة العادلة الحالية ضعيفة من نواح كثيرة. غالباً ما ينبع هذا الضعف من المعايير المستخدمة لضمان العدالة. إذ تركّز معظم الخوارزميات التي تفرض “قيود الإنصاف” مثل التكافؤ الديموغرافي وعمى الألوان على ضمان الإنصاف على مستوى النتائج. فإذا كان هناك شخصان من مجموعات سكانية فرعية مختلفة، فإن القيود المفروضة تضمن أن نتيجة قراراتهم متسقة عبر المجموعات. لكن يحتاج مصممو الخوارزميات إلى مراعاة كيف ستغير المجموعات سلوكها للتكيف مع الخوارزمية بما يتجاوز المدخلات والمخرجات فقط.

في حين أن هذه خطوة أولى جيدة، يحتاج الباحثون إلى النظر إلى ما وراء النتائج وحدها والتركيز على العملية أيضاً. على سبيل المثال؛ عند استخدام خوارزمية ما، فإن المجموعات السكانية الفرعية المتأثرة ستغير بشكل طبيعي جهودها استجابةً لذلك. ويجب أن تؤخذ هذه التغييرات في الاعتبار أيضاً. ولكن نظراً لعدم أخذها في الاعتبار، يركز الباحثون الآن على ما يسمى بـ «عدالة الاستجابة الأفضل».

إذا كانت المجموعات السكانية الفرعية متشابهة بطبيعتها، فيجب أن يكون مستوى جهدهم لتحقيق نفس النتيجة هو نفسه أيضاً حتى بعد تنفيذ الخوارزمية. ولا يتم تلبية هذا التعريف البسيط لأفضل استجابة من خلال الخوارزميات القائمة على التكافؤ الديموغرافي وعمى الألوان.

على سبيل المثال أيضاً؛ يتطلب التكافؤ الديموغرافي أن تكون المعدلات الإيجابية متساوية حتى لو لم تبذل إحدى المجموعات السكانية الفرعية جهداً. بعبارةٍ أخرى، سيتعيّن على الأشخاص في مجموعة سكانية فرعية واحدة أن يعملوا بجهد أكبر لتحقيق نفس النتيجة. وستعتبر الخوارزمية القائمة على التكافؤ الديموغرافي الأمر عادلاً -إذ حققت كلتا المجموعتين الفرعيتين نفس النتيجة- إلا أنه لم يكن كذلك.

هناك قيود أخرى للعدالة تُعرف باسم «الاحتمالات المتساوية»؛ والتي تفي بمفهوم أفضل عدالة للاستجابة. فهي تضمن الإنصاف حتى لو أخذت في الاعتبار استجابة المجموعات السكانية الفرعية. ومع ذلك، لفرض ذلك التقييد، تحتاج الخوارزمية إلى معرفة المتغيرات التمييزية (مثل لون البشرة)، وسوف ينتهي الأمر بوضع حدود مختلفة بشكل صريح للمجموعات السكانية الفرعية. لذلك، ستكون العتبات مختلفة بشكل واضح بالنسبة للأشخاص البيض والسود.

في حين أن ذلك من شأنه أن يساعد على زيادة عدالة النتائج، فإن مثل هذا الإجراء قد ينتهك فكرة المساواة في المعاملة التي تتطلبها قوانين الحقوق المدنية. ولهذا السبب، حثّت إحدى مقالات منظمة «مراجعة قانون ولاية كاليفورنيا» صنّاع السياسة على تعديل التشريع بحيث تستخدم الخوارزميات العادلة هذا النهج دون تداعيات قانونية محتملة.

هذه القيود تحفز الباحثين على تطوير خوارزمية ليست فقط ذات عدالة استجابة أفضل، ولكنها أيضاً لا تستخدم المتغيرات التمييزية بشكل صريح.

وعلى الرغم من التحديات، ستظل الآلات والخوارزميات مفيدة للبشر، للوظائف المادية وكذلك الوظائف المعرفية. يجب أن نظل يقظين من مدى عدل القرارات التي تتخذها الخوارزميات، ومن الضروري أن يفهم الجميع حدوده. وإذا تمكنا من القيام بذلك، فمن الممكن أن يكمل الذكاء البشري والآلي بعضهما البعض بطرق قيّمة.

شرعية وأخلاقيات الخوارزميات

تحيز الخوارزميات

في معظم توصيات الباحثين والمختصين الموجّهة للحكومات والشركات الراغبة في استخدام عملية صنع القرار بواسطة الذكاء الاصطناعي، يتم التأكيد في المقام الأول على أهمية مراعاة المبادئ العامة للعدالة وحقوق الإنسان عند استخدام هذه التكنولوجيا. ويجب أن يتم ذلك قبل أن يكون النظام قيد الاستخدام.

كما يوصى أيضاً بأن يتم تصميم الأنظمة واختبارها بشكلٍ صارم قبل شروعها في العمل لضمان عدم وقوع النتائج بمشكلة تحيز الخوارزميات. وحتى بمجرد تشغيل الأنظمة وشروعها بالعمل، يجب مراقبتها عن كثب، وباستمرار.

أخيراً، يُنصح بأن استخدام أنظمة الذكاء الاصطناعي بمسؤولية وأخلاقية يتجاوز الامتثال لنصوص القانون الضيّقة. كما يتطلب أن يكون النظام متوافقاً مع الأعراف الاجتماعية العادلة المقبولة على نطاقٍ واسع، ومراعياً للتأثير على الأفراد والمجتمعات والبيئة.

فمع انتشار أدوات صنع القرار في مجال الذكاء الاصطناعي، أصبح لدينا الآن فرصة ليس فقط لزيادة الإنتاجية، ولكن أيضاً لإنشاء مجتمع أكثر إنصافاً وعدالة، إذا استخدمناها بعناية بالطبع.

0

شاركنا رأيك حول "تحيّز الخوارزميات.. عندما يصبح الذكاء الاصطناعي عنصرياً بسبب الخطأ البشري"