لربما لن تستطيع معظم الشركات أن توظف عددًا كبيرًا من الموظفين، وتحمّل التكاليف الملقاة على عاتقها بما يخص ذلك فقط من أجل إدارة وتنسيق بياناتها الهائلة والمتغيرة باستمرار بين وهلةٍ وأخرى، لذلك تلجأ هذه الشركات إلى استخدام نمطية برمجية تتكفل بتحمل هذا الحمل لتوفر الكثير من المال، والوقت، بالإضافة إلى تحقيق السرعة في إنجاز هذه العمليات، وهذا ما يسمى تعلم الآلة.

على الرغم من أن تكنولوجيا التعلم الآلي واعدة بآفاقها الواسعة، فعلى النقيض يمكن أن تكون أيضًا عرضة للتحيزات غير المقصودة والمخطط لها، والتي تتطلب بذاتها أن تكون مبرمجة بشكلٍ دقيق، وعلى نحو غير قابل للخطأ والتكهن من أجل تجنب الوقوع في مشاكل كارثية.

استخدامات تعلم الآلة

في يومنا هذا تميل العديد من الشركات إلى استخدام تعلم الآلة لمراجعة كميات هائلة من البيانات، بما فيها مثلًا من تقييم الائتمان لطلبات القروض، فحص العقود القانونية بحثًا عن أية أخطاء، والبحث والتحري عن تفاصيل اتصالات الزبائن مع الموظفين، وذلك بغية تقييم مدى سلوكيّة ونهج التعامل معهم، بحيث أصبح متوفرًا وبسهولة العديد من الأدوات الجديدة التي تسمح بدورها للمطورين إنشاء ونشر محركات تعلم الآلة بسهولة أكثر من أي وقت مضى.

لقد أطلقت شركة “Amazon Web Services Inc” مؤخرًا نموذجًا للتعلم الآلي والمندرج تحت اسم “SageMaker “، والذي أتاح بدوره للمهندسين وذوي الاختصاص الاستفادة من بناء نماذج متطورة ومعقدة من تعلم الآلة، بحيث توفر نسخ عديدة منها هذه المتطلبات بدون الحاجة إلى الترميز البرمجي، ومن أمثلتها “Microsoft Azure” و “Machine Learning Studio”.

لكن في حين أن خوارزميات تعلم الآلة والتي تتمكن الشركات من خلالها من تحقيق نتائج وكفاءات ممتازة، إلا أنها على النقيض معرّضة مثل بقية الأنظمة إلى متلازمة “Garbage in و Garbage out”، والتي يمكن شرحها وتلخيصها بأنه في حال كانت البيانات المدخلة عن طريق المستخدم إلى الحاسوب غير دقيقة بشكلٍ كلي، فإن البيانات الصادرة عنه ستكون مبهمة وغير واضحة وستؤدي بدورها إلى نتائج كارثية؛ لأن معظم المستخدمين لا يفهمون طريقة تحليل الآلة للعمليات والبيانات بشكلٍ كلي، فلذلك يلجؤون إلى تصديق كامل البيانات الصادرة واعتمادها بشكل رسمي.1

مخاطر تعلم الآلة

  • التحيز

أكثر مخاطر تعلم الآلة شيوعًا، ويُعرّف التحيز على أنه ميل الخوارزمية إلى تعلم الشيء الخطأ باستمرار من خلال عدم مراعاة جميع البيانات الموجودة في المعلومات، ويقع اللوم في ذلك على عاتق المستخدم، أي أنّ الآلة لن تتحيز من تلقاء نفسها إلا إذا كان المبرمج متحيز بفكرته تجاه طرفٍ أكثر من آخر، لا يظهر ذلك للعيان بسهولة وإنما يتراكم مع مرور الوقت لتعطي الآلة معلومات خاطئة، ومتناقضة مع الوظيفة التي بنيت من أجلها.

  • نقص في التنوع (التحسين المفرط)

تقضي أيامًا وأيامًا عديدة في بناء نموذجك الخاص، ومن ثم تدريبه وتحسينه وتلقينه البيانات اللازمة ليغدو أفضل وترتقي به إلى الكمالية، ومن ثم تلاحظ بأن بياناتك بشتّى أشكالها بدأت بالانهيار، وكل جهدك تلاشى إلى العدم. ماذا حدث!.

الذي حدث هو أنك بالغت وأفرطت في بناء وتحسين نموذجك، وترى ذلك طوال الوقت في الأسواق المالية عندما يحاول الناس إنشاء استراتيجية للاستثمار في سوق الأسهم، بحيث يبنون استراتيجية نموذجية ومن ثم يغيرون المدخلات والمتغيرات، حتى يحصلوا على بعضٍ من الأرقام بدقة هائلة تجعلهم أصحاب ملايين في غضون بضعة أشهر، فاستراتيجية الاستثمار تم بناؤها وإنشاؤها باستخدام مجموعة معينة من البيانات، ومن ثم يقوم المستخدم بتبديل البيانات المدخلة منها، واستبدالها بأخرى لإعطاء بيانات مخرجة بشكلٍ أفضلٍ، وأنسب دون النظر إلى تباين البيانات الحاصل ( تبديل شكل البيانات وترتيبها دون إضفاء أي جديد منها على النموذج)، فيظن المستخدم بأنه سيلقى نتيجة مرضية وسريعة، ولكن على العكس؛ فعندما تبدأ بتطبيق استراتيجية الاستثمار على بيانات جديدة فإنها لن تنجح إطلاقًا مقارنةً مع القديمة منها، وكل أحلامك كمليونير تتلاشى مع ضوء الفجر، بينما يلاحظ المستثمر بأن قيمة حسابه الاستثماري تتضاءل شيئًا فشيئًا.

يتوجب عليك اتباع طرقٍ بسيطة في بناء النموذج، فلا تبالغ في التحسين، وتأكد من تنوع البيانات التي تدخلها في نماذج تعلم الآلة الخاصة بك عبر كل من أنواع البيانات، والأطر الزمنية، ومجموعات البيانات الرسومية، والعديد من أشكال التباين الأخرى التي يمكنك العثور عليها.

  • تفسير البيانات الصادرة

ترهق نفسك في التأكد من نوع البيانات المدخلة، وبأنها بيانات جيدة وتتناسب مع نموذجك الحالي من التعلم الآلي، فأنت تفعل كل شيء بشكل صحيح، وبعد ذلك؛ يأتي مديرك ليلقي نظرته الخاصة عليه، ويفسر النتائج بطريقة أبعد ما تكون عن الدقة، لتوهمك بأن هناك خطأً فاحشًا قد ارتكبته للتو!.

وهذا يحصل طوال الوقت، إذ تتم إساءة تفسير البيانات الخارجة من النموذج لتستخدم بعدها بشكلٍ غير صحيح أو أن يتم تجاهل الافتراضات التي تم استخدامها لبناء نموذج التعلم الآلي وإساءة فهمها.

فعلى سبيل المثال، قامت إحدى الشركات بتعيين أحد العلماء المختصين في بناء نماذج التعلم الآلي للمساعدة بالتنبؤ بإيرادات الشركة، حيث تم بناء نموذج يجمع كامل البيانات ويرتّبها ليعطي نتائج ربع سنوية عن الإيرادات (كل ثلاثة أشهر) وقائم على معدل خطأ ومقاييس تباين جيدين، وعند صدور النتائج المنتظرة؛ غضب المدير على الفور وقام باستدعاء العالم المختص ليخبره بأن الإيرادات قد انخفضت بمقدار 5-10 أضعاف مقارنة بالنتائج القديمة، واستنادًا على دراسات فريق المبيعات التي توضح بأن الشركة ستشهد نموًا في دخلها هذا العام بمقدار 5-10 أضعاف، يتبين لاحقاً بأن المدير قد أساء فهم هذه البيانات ولم يلحظ بأن النتائج التي أخرجتها الآلة كانت فصلية وليست سنوية كما كان معتادًا.2

فلا تتسرع وعاين كل جزءٍ بجزئه، تعرّف على بياناتك وقدرات أعمالك عندما يتعلق الأمر بعلوم البيانات والمعلومات، وكن على دراية بأن كل شخص يحتاج إلى تعلم الآلة واستخدام الذكاء الاصطناعي، خذ وقتك لفهم كواليس هذه العملية، وإيجاد طرق للتخفيف من مخاطر تعلم الآلة، والعواقب الكامنة وراءه.

المراجع