تريند 🔥

🌙 رمضان 2024

المعلومات المضللة من الذكاء الاصطناعي .. كيف تعمل وكيف يمكننا اكتشافها؟

منة الله سيد أحمد
منة الله سيد أحمد

8 د

انتشرت في شهر مارس صور مزيفة للبابا فرانسيس وهو يرتدي سترة منتفخة أنيقة، مما يشير إلى أن الزعيم الديني كان يعرض أزياء من ماركة الأزياء الفاخرة بالنسياغا، بينما حصد مقطع فيديو على تطبيق تيك توك لشوارع باريس المليئة بالقمامة أكثر من 400 ألف مشاهدة هذا الشهر، لكن الصور ومقطع الفيديو جميعهم كانوا مزيفين تمامًا وأنشؤوا بواسطة الذكاء الاصطناعي.

ففي الوقت الذي تُستخدم فيه أدوات الذكاء الاصطناعي في الإبداع، يستخدمها البعض أيضًا كأداة لنشر المعلومات والأخبار المضللة، وتنشأ المشاكل عندما لا نستطيع التمييز بين الذكاء الاصطناعي والواقع، إذ يقول الخبراء إن هذا المحتوى المضلل الذي يصنعه الذكاء الاصطناعي يمكن أن يؤدي عملًا أفضل في خداع الجمهور من المحتوى الذي أنشأه الإنسان، فما هي المعلومات المضللة بواسطة الذكاء الاصطناعي؟ ولماذا هي فعّالة؟ وما الذي تفعله شركات التكنولوجيا تجاهها؟ وكيف يمكننا التعامل معها؟


ما هي المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي ولماذا هي فعالة؟


لقد كانت التكنولوجيا دائمًا أداة للتضليل، سواء كان ذلك بريدًا إلكترونيًا مليئًا بالمؤامرات المجنونة التي أُعيد توجيهها من أحد الأقارب، أو منشورات فيسبوك حول COVID-19 ، فإن أولئك الذين يريدون خداع الجمهور سوف يستخدمون التكنولوجيا لتحقيق أهدافهم، وقد أصبحت المشكلة أخطر في السنوات الأخيرة، ويرجع الفضل في ذلك جزئيًا إلى توفير وسائل التواصل الاجتماعي أداة توزيع مكثفة لبائعي المعلومات المضللة.

إن تقنية الذكاء الاصطناعي التوليدي بعيدة كل البعد عن الكمال، إذ يمكن لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي تقديم إجابات خاطئة في الواقع ويمكن أن يكون للصور التي أنشأها الذكاء الاصطناعي مظهر غريب ولكنها سهلة الاستخدام، وإن سهولة الاستخدام هذه هي التي تجعل أدوات الذكاء الاصطناعي التوليدي عرضة لسوء الاستخدام.

وتأتي المعلومات الخاطئة التي أنشأها الذكاء الاصطناعي بأشكال مختلفة، ففي شهر مايو غرّد موقع RT.com الإخباري الروسي الذي تسيطر عليه الدولة صورة مزيفة لانفجار بالقرب من البنتاغون في واشنطن العاصمة، ويقول الخبراء إن الصورة أنشئت على الأرجح بواسطة الذكاء الاصطناعي، وانتشرت على نطاق واسع على وسائل التواصل الاجتماعي، مما تسبب في انخفاض سوق الأسهم.

وقد وجدت News Guard -منظمة تقييم موثوقية المواقع الإخبارية- أكثر من 300 موقعًا تُشير إليهم على أنهم "مواقع أخبار ومعلومات غير موثوقة تنشأ بواسطة الذكاء الاصطناعي"، وتحتوي هذه المواقع على أسماء عامة ولكنها تبدو مشروعة، لكن المحتوى المُنتج يتضمن بعض الادعاءات الكاذبة مثل خدع وفاة المشاهير وغيرها من الأحداث المزيفة.

قد تبدو هذه الأمثلة مزيفة بوضوح لمستخدمي الإنترنت الأكثر ذكاءً، ولكن نوع المحتوى الذي أنشأه الذكاء الاصطناعي يتحسن ويصعب اكتشافه، ولقد أصبح الأمر أكثر إلحاحًا، وهو أمر مفيد للجهات الفاعلة الخبيثة التي تحاول دفع أجندتها من خلال الدعاية.

قال مونمون دي شودري الأستاذ المساعد في كلية الحوسبة التفاعلية بجامعة جورجيا للتكنولوجيا والمؤلف المشارك لدراسة تبحث في المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي والتي نُشرت في أبريل:"تميل المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي إلى أن يكون لها في الواقع جاذبية عاطفية أكبر ، ويمكنك فقط استخدام أدوات الذكاء الاصطناعي التوليدية هذه لتوليد معلومات مقنعة للغاية ودقيقة المظهر واستخدامها لتعزيز أي دعاية أو مصلحة سياسية يحاولون الترويج لها، وهذا النوع من سوء الاستخدام هو أحد أكبر التهديدات التي أراها في المستقبل."

كما يمكن للجهات الفاعلة السيئة التي تستخدم الذكاء الاصطناعي التوليدي تعزيز جودة معلوماتها الخاطئة وجعلها فعالة من خلال خلق جاذبية عاطفية أكثر، ولكن توجد حالات لا يلزم فيها إخبار الذكاء الاصطناعي بإنشاء معلومات كاذبة، فهو يفعل كل ذلك من تلقاء نفسه، والذي يمكن بعد ذلك أن ينتشر عن غير قصد.

المعلومات الخاطئة ليست دائما مقصودة، ويقول جافين ويست -الأستاذ المساعد في كلية المعلومات بجامعة واشنطن والمؤسس المشارك لمركز الجمهور المستنير- في عرضه التقديمي Mini MisinfoDay في مايو:"إن الذكاء الاصطناعي يمكنه توليد معلومات كاذبة خاصة به تسمى الهلوسة، فعندما يُكلف الذكاء الاصطناعي بمهمة، فمن المفترض أن يولد استجابة بناءً على بيانات العالم الحقيقي، ومع ذلك في بعض الحالات يُلفق الذكاء الاصطناعي المصادر، وهذا يعني أن الأمر هلوسة."

وقد أثار بارد Bard من جوجل وترًا حساسًا مع موظفي الشركة الذين اختبروا الذكاء الاصطناعي قبل إتاحته للجمهور في مارس، فأولئك الذين جربوه قالوا إن التكنولوجيا عُجّل بها وأن بارد كان "كاذبًا مُرضيًا"، كما أنه قدم نصيحة سيئة -إن لم تكن خطيرة- حول كيفية الهبوط بالطائرة أو الغوص.

إن هذه الضربة المزدوجة للمحتوى الذي أنشأه الذكاء الاصطناعي كونه معقولًا ومقنعًا، سيئة بما فيه الكفاية، ومع ذلك فإن حاجة البعض إلى الاعتقاد بأن هذا المحتوى المزيف حقيقي هو ما يساعد على انتشاره.


ما الذي يجب فعله بشأن المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي؟


عندما يتعلق الأمر بمكافحة المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي، ومخاطر الذكاء الاصطناعي، يقول مطورو هذه الأدوات إنهم يعملون على تقليل أي ضرر قد تسببه هذه التكنولوجيا، لكنهم اتخذوا أيضًا خطوات يبدو أنها تتعارض مع نواياهم.

فقد سرّحت Microsoft -التي استثمرت مليارات الدولارات في OpenAI، منشئ ChatGPT- عشرة آلاف موظف في مارس، بما في ذلك الفريق الذي كانت مسؤولياته التأكد من تطبيق المبادئ الأخلاقية عند استخدام الذكاء الاصطناعي في منتجات Microsoft.

وعندما سُئل ساتيا ناديلا -الرئيس التنفيذي لشركة مايكروسوفت- عن تسريح العمال في إحدى حلقات برنامج Freakonomics Radio في يونيو، قال إن سلامة الذكاء الاصطناعي جزء مهم من صناعة المنتجات، وأضاف:"إن العمل الذي تقوم به فرق السلامة في مجال الذكاء الاصطناعي أصبح الآن سائدًا للغاية، ولقد ضاعفنا جهودنا في الواقع، وبالنسبة لي فإن أمان الذكاء الاصطناعي يشبه الاهتمام بالأداء أو الجودة لأي مشروع برمجي."

تقول الشركات التي ابتكرت هذه التكنولوجيا إنها تعمل على تقليل مخاطر الذكاء الاصطناعي، إذ قامت شركات جوجل ومايكروسوفت و Open AI و Anthropic -شركة متخصصة في مجال سلامة وأبحاث الذكاء الاصطناعي- بتشكيل منتدى النموذج الحدودي في 26 يوليو، والهدف من هذه المجموعة هو تعزيز أبحاث سلامة الذكاء الاصطناعي، وتحديد أفضل الممارسات، والتعاون مع صناع السياسات والأكاديميين والشركات الأخرى.  

ومع ذلك يتطلع المسؤولون الحكوميون أيضًا إلى معالجة مسألة سلامة الذكاء الاصطناعي، إذ التقت نائبة الرئيس الأمريكي كامالا هاريس، بقادة شركات جوجل ومايكروسوفت و Open AI في شهر مايو الماضي حول المخاطر المحتملة للذكاء الاصطناعي، وبعد شهرين قدم هؤلاء القادة التزامًا طوعيًا لإدارة بايدن للحد من مخاطر الذكاء الاصطناعي، وقال الاتحاد الأوروبي في يونيو إنه يريد من شركات التكنولوجيا أن تبدأ في تصنيف المحتوى الذي أُنشئ بواسطة الذكاء الاصطناعي قبل إقرار تشريع لذلك.


ما الذي يفعله عمالقة الإنترنت بشأن المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي؟


لمكافحة المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي قبل الانتخابات الرئاسية الأمريكية لعام 2024، سوف تشترط شركة جوجل اعتبارًا من منتصف نوفمبر، أن تكون الإعلانات السياسية التي تستخدم الذكاء الاصطناعي بمثابة فضيحة لها.

تقول سياسة Google المُحدثة، والتي تنطبق أيضًا على المحتوى الموجود على YouTube:"يجب على جميع المعلنين الانتخابيين الذين تُحقق منهم في المناطق التي تتطلب التحقق، أن يكشفوا بوضوح عندما تحتوي إعلاناتهم على محتوى اصطناعي يصور بطريقة غير صحيحة أشخاصًا أو أحداثًا حقيقية أو ذات مظهر واقعي، كما يجب أن يكون هذا الكشف واضحًا وظاهرًا، ويجب وضعه في مكان من المحتمل أن يلاحظه المستخدمون، وسوف تطبق هذه السياسة على محتوى الصور والفيديو والصوت."

تقدم Meta نفس المتطلبات  للإعلانات  السياسية على Instagram و Facebook اعتبارًا من 1 يناير، وتقول سياسة Meta الجديدة:"سوف يتعين على المعلنين الكشف عندما تحتوي قضية اجتماعية أو إعلان انتخابي أو سياسي على صورة أو مقطع فيديو واقعي، أو صوت واقعي، أنشئ أو عُدل رقميًا."


كيف نتجنب المعلومات الخاطئة حول الذكاء الاصطناعي؟


توجد أدوات ذكاء اصطناعي متاحة للكشف عن محتوى المعلومات الخاطئة الذي أنشأه الذكاء الاصطناعي، لكنها ليست على المستوى المطلوب حتى الآن، ويقول دي تشودري في دراسته:"إن أدوات الكشف عن المعلومات الخاطئة هذه تحتاج إلى مزيد من التعلم المستمر للتعامل مع المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي."

وفي يوليو قامت الشركة بإزالة  أداة OpenAI الخاصة بالكشف عن النصوص المكتوبة بواسطة الذكاء الاصطناعي، بسبب انخفاض معدل دقتها، فكيف يمكننا إذًا معرفة المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي؟ يوضح ذلك وسيم خالد -الرئيس التنفيذي والمؤسس المشارك لشركة Blackbird.AI- قائلًا:"إن ما يساعد على تحديد ما إذا كان جزء من المحتوى أنشئ بواسطة الذكاء الاصطناعي هو القليل من الشك والاهتمام بالتفاصيل."

ويضيف:"المحتوى الذي أُنشئ بواسطة الذكاء الاصطناعي، على الرغم من تقدمه، إلا أنه غالبًا ما يحتوي على مراوغات أو تناقضات خفية، وقد لا تكون هذه العلامات موجودة أو ملحوظة دائمًا، لكنها قد تكشف أحيانًا عن محتوى أُنشئ بواسطة الذكاء الاصطناعي."

بالإضافة إلى ذلك توجد 4 أشياء يجب مراعاتها عند محاولة تحديد ما إذا كان شيء ما قد أُنشئ بواسطة الذكاء الاصطناعي أم لا:

ذو صلة
  • ابحث عن مراوغات الذكاء الاصطناعي: إن الصياغة الفردية أو الظلال أو الجمل غير ذات الصلة التي لا تتناسب تمامًا مع السرد العام هي علامات على النص المكتوب بواسطة الذكاء الاصطناعي، أما الصور ومقاطع الفيديو، يمكن أن تكون التغييرات في الإضاءة أو حركات الوجه الغريبة أو المزج الغريب للخلفية مؤشرات على أنها أُجريت باستخدام الذكاء الاصطناعي.
  • فكر في المصدر: اسأل نفسك هل هذا مصدر حسن السمعة مثل Associated Press أو BBC أو New York Times، أم أنه يأتي من موقع لم تسمع به من قبل؟
  • أجري البحث الخاص بك: إذا كان المنشور الذي تراه عبر الإنترنت يبدو مجنونًا جدًا لدرجة يصعب تصديقه، فتحقق منه أولاً، يمكن البحث في Google عن ما رأيته في المنشور واكتشف ما إذا كان حقيقيًا أم أنه مجرد محتوى للذكاء الاصطناعي انتشر بسرعة كبيرة.
  • تحقق من الواقع: خذ وقتًا مستقطعًا وتحدث مع الأشخاص الذين تثق بهم حول الأشياء التي تراها، فقد يكون من الضار أن تُبقي نفسك داخل فقاعة على الإنترنت، فيصبح من الصعب معرفة ما هو حقيقي وما هو مزيف.

ومن المهم أيضًا عند مكافحة أي نوع من المعلومات الخاطئة، سواء كانت صادرة عن البشر أو الذكاء الاصطناعي، هو عدم مشاركتها، إذ قال جافين ويست:"الشيء الأول الذي يمكننا القيام به هو التفكير أكثر، والمشاركة بطريقة أقل."

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة