تريند 🔥

🌙 رمضان 2024

هل أصبح الذكاء الاصطناعي أداة جديدة للمعلومات المُضللة؟

منة الله سيد أحمد
منة الله سيد أحمد

11 د

انتشرت منذ عدة أشهر صور للحظة اعتقال الرئيس الأمريكي السابق دونالد ترامب، وتفاعل الملايين مع تلك الصور، ومنذ عدة أيام أيضًا انتشر عبر مواقع التواصل الاجتماعي مقطع صوتي للفنان الراحل عبد الحليم حافظ، وهو يغني إحدى الأغاني الحديثة التي تتصدر التريند حاليًا، ربما تتوقف الآن وتتساءل عن الرابط بين هاتين الحالتين.

 الجواب ببساطة هو "الذكاء الاصطناعي"، فالصور والمقطع الصوتي يجمعهما أنهما مزيفان وصنعا بواسطة أدوات الذكاء الاصطناعي.


ينتشر الذكاء الاصطناعي بسرعة في جميع جوانب حياتنا، وتنمو التحديات الخاصة به، فمع ظهور تقنيات متقدمة مثل  "Deepfake" و " Midjourney"، أصبح الذكاء الاصطناعي أداة قوية لإعادة تشكيل الحقيقة، وبث المعلومات المضللة، إذ تستطيع صورة أو فيديو مزيف تغيير مجرى الأحداث السياسية، أو الإضرار بالأفراد والمؤسسات.

فربما كان من السهل كشف زيف صور اعتقال ترامب، أما المقطع الصوتي لعبد الحليم حافظ فهو مجرد تجربة ترفيهية واضح زيفها، لكن يظل هذا مثالًا بسيطًا على قدرة تقنيات الذكاء الاصطناعي على إنشاء معلومات مُضللة، الأمر الذي يدفعنا في هذا المقال لمناقشة كيف يمكن استغلال هذا النوع من التكنولوجيا لأغراض تضليلية، وما هي الآثار السلبية لاستخدام الذكاء الاصطناعي كأداة للمعلومات المضللة، كما سوف نستكشف الحلول الممكنة والجهود الجارية للحد من استخدام الذكاء الاصطناعي في نشر المعلومات المضللة.


استخدام الذكاء الاصطناعي في نشر المعلومات المضللة

في الآونة الأخيرة، أدى ظهور الذكاء الاصطناعي التوليدي إلى انتشار الأخبار الكاذبة والمعلومات المضللة، إذ يستطيع الأفراد المخادعين استخدام الذكاء الاصطناعي التوليدي لمشاركة المعلومات المُضللة والأخبار المزيفة من خلال المحتوى المرئي أو السمعي أو النصي، وتصنف الأخبار الكاذبة والمُضللة إلى ثلاثة أنواع:

  • المعلومات الخاطئة "misinformation": هي معلومات غير صحيحة أو خاطئة غير مقصودة، ينشرها أشخاص عاديّون اعتقادًا منهم بأنها صحيحة، ومن الصعب التحقق من تلك المعلومات ولذلك نستعين بخدمات شركات متخصصة في التدقيق بالحقائق تساعد على التخلص من تلك المعلومات المنشورة، وإرسال المعلومات الصحيحة للمستخدمين بهدف نشر الوعي.
  • المعلومات المُضللة "disinformation": وهي الاستخدام المتعمد للمعلومات الاحتيالية أو الخادعة، ويشتري أصحابها  تلك المعلومات "إعجابات" الجماهير، وينشرون المعلومات الخطأ عن قصد، بهدف التلاعب والإضرار بالأشخاص أو المنظمات أو الدول.
  • معلومات زائفة "Malinformation": وهي أخبار مضللة أو نسخة مبالغ فيها من الحقيقة تنشر بهدف الضرر.

وقائع حقيقية تم خلالها استخدام الذكاء الاصطناعي لنشر معلومات غير صحيحة أو مضللة

يوجد العديد من الأمثلة التي استُخدِم فيها الذكاء الاصطناعي لنشر الأخبار المُضللة، أشهرها مقطع فيديو نُشر عام 2022 للرئيس الأوكراني فولوديمير زيلينسكي، يطلب من القوات الاستسلام، وقد ثبت أن هذا الفيديو مزيف إذ اُستخدمت تقنية التزييف العميق "Deepfake" لتضليل الناس، ولا يزال هذا الفيديو متداولًا على وسائل التواصل الاجتماعي.

بينما أثارت صورة غريبة للبابا فرانسيس الانتباه عبر الإنترنت مؤخرًا، إذ ظهر البابا البالغ من العمر 86 عامًا، وهو يرتدي معطفًا لونه أبيض،طويلًا ومنفوخًا وضيّقًا عند الخصر، الأمر الذي أثار سيلًا من الأسئلة السّاخرة عبر الإنترنت، حتى أرفق موقع تويتر ملاحظة توضّح أن الصّورة مصنوعة بالذّكاء الصناعي عبر برنامج "Midjourney".



لماذا يُستخدم الذكاء الاصطناعي بهذه الطريقة؟

في الواقع هناك العديد من الأسباب التي تجعل البعض يستخدم الذكاء الاصطناعي بهذه الطريقة، فقد يكون السبب وراء استخدام المعلومات المضللة هو تضليل الناس والتأثير على آرائهم، أو لشن حملات تشويه ضد الآخرين، علاوة على ذلك، في ظل عصر "الميمز" الحالي، يمكن أن تكون تقنية deepfakes بمثابة أدوات للتنمر عبر الإنترنت على وسائل التواصل الاجتماعي.

كما يتيح الذكاء الاصطناعي التوليدي مع تقنية التزييف العميق، التلاعب بكلام شخص ما، مما يسمح للأفراد بانتحال صفة الآخرين وخداع الأفراد أو الاحتيال من خلال انتحال صفة شخص ما.

بالإضافة إلى ذلك، قد يستخدم الخصوم السياسيون الصوت والفيديو المزيف العميق لتشويه سمعة خصومهم، والتلاعب بالمشاعر العامة بمساعدة الذكاء الاصطناعي، لذلك فإن التزييف العميق الناتج عن الذكاء الاصطناعي يشكل تهديدات عديدة في المستقبل.


طرق استخدام الذكاء الاصطناعي في نشر المعلومات المُضللة

 بعد أن سلطنا الضوء على وقائع حقيقية استغل فيها بعض الأشخاص أدوات الذكاء الاصطناعي لنشر أخبار ومعلومات مضللة، وتعرفنا على الأسباب والدوافع وراء ذلك، حان الوقت لنعرف كيف يستخدم البعض الذكاء الاصطناعي بهذه الطريقة؟

في الحقيقة هناك العديد من الطرق التي يُستخدم بها الذكاء الاصطناعي لنشر المعلومات المضللة، منها:


التزييف العميق "Deepfakes"

 هي مقاطع فيديو تُنشأ باستخدام خوارزميات الذكاء الاصطناعي، التي تستطيع أن تغير وجه شخص موجود في الفيديو بوجه شخص آخر، واُستخدمت هذه التقنية لإنشاء مقاطع فيديو مزيفة لمشاهير وسياسيين وشخصيات عامة أخرى.

مثال: لنفترض أن هناك مقطع فيديو لزعيم سياسي يلقي خطابًا- وهو ما حدث بالفعل مع الرئيس الأوكراني- يمكن لأي شخص استخدام خوارزمية مزيفة للتلاعب بالفيديو وتغيير كلمات وأفعال القائد، مما يجعل الأمر يبدو وكأنه يقول شيئًا مختلفًا تمامًا أو يتصرف بشكل غير لائق، وتكون النتيجة مقطع فيديو يبدو حقيقيًا ومقنعًا للغاية، ولكنه ملفق بالكامل من المعلومات المضللة.

في السنوات الأخيرة، أصبحت المنتجات المزيفة أكثر تعقيدًا وأسهل في الإنشاء، مما أثار مخاوف بشأن تأثيرها المحتمل على السياسة والأمن القومي وثقة الجمهور، والمثال السابق مجرد مثال واحد على كيفية استخدام الذكاء الاصطناعي التوليدي لإنشاء معلومات مزيفة، يمكن نشرها بسرعة ويكون لها عواقب في العالم الحقيقي.



مولدات النص 

يوجد العديد من نماذج الذكاء الاصطناعي لإنشاء النصوص مثل GPT-3 التي يمكنها إنشاء نص يبدو واقعيًا، واُستخدمت هذه النماذج لإنشاء مقالات إخبارية مزيفة، ومنشورات على وسائل التواصل الاجتماعي، وحتى مواقع ويب كاملة تنشر معلومات مضللة.

مثال: لنفترض أن هناك مقالة إخبارية تتحدث عن حدث كبير، يمكن استخدام خوارزمية منشئ النص لإنشاء نسخة مزيفة من المقالة كاملة مع اقتباسات من مصادر مزيفة، ومعلومات مضللة، وادعاءات كاذبة، والنتيجة عبارة عن معلومات مضللة تبدو وكأنها مقالة إخبارية مشروعة ولكنها مُزيفة تمامًا.

مع ظهور معالجة اللغة الطبيعية وتقنيات الذكاء الاصطناعي الأخرى، أصبحت أدوات إنشاء النصوص أكثر تقدمًا ويصعب اكتشافها، ويمكن استخدامها لإنشاء قصص إخبارية مزيفة ومنشورات على وسائل التواصل الاجتماعي وحتى رسائل بريد إلكتروني أو رسائل يبدو أنها واردة من أشخاص حقيقيين.


التوليف الصوتي و استنساخ الأصوات البشرية 

يمكن استخدام خوارزميات الذكاء الاصطناعي التوليدية لإنشاء صوت اصطناعي يبدو وكأنه يتحدث به شخص حقيقي، واُستخدمت هذه التقنية لإنشاء تسجيلات صوتية مزيفة لشخصيات عامة تقول أشياء لم يقولوها في الواقع.

ومثال على ذلك: يمكن إنشاء مقطع صوتي مزيف عميق لشخصية سياسية تقول شيئًا لم تقله في الواقع، كما يمكن بعد ذلك مشاركة المقطع على وسائل التواصل الاجتماعي، حيث يمكن أن ينتشر بسرعة ويؤثر على الرأي العام.

وعلى الرغم من أن التوليف الصوتي يعد أداة قوية يمكن استخدامها للأغراض الجيدة،  إذ لديه القدرة على تعزيز عمليات التسجيل والتحرير الصوتي، إلا أنه يمكن استخدامه أيضًا في حملات التضليل والأنشطة الضارة الأخرى.


ما هي الآثار السلبية لاستخدام الذكاء الاصطناعي كأداة للمعلومات المضللة؟

استخدام الذكاء الاصطناعي كأداة للمعلومات المضللة يمكن أن يؤدي إلى العديد من الآثار سلبية، سواء على مستوى الأفراد أو المجتمعات، ومن ضمن هذه الآثار:


التأثير على الأفراد والقرارات الشخصية

يستطيع للذكاء الاصطناعي التلاعب العاطفي، إذ يمكن استخدام نماذج الذكاء العاطفي لاستغلال المحفزات والانحيازات العاطفية لتشكيل وجهات نظر الأفراد.

يمكن أيضًا تعزيز روبوتات المحادثة المعتقدات الحالية من خلال إنشاء غرف صدى تتحقق من تحيزاتك، أي أنه إذا كان لديك بالفعل وجهة نظر معينة، يمكن للذكاء الاصطناعي تقويتها من خلال تقديم المعلومات التي تتوافق مع أرائك.

كما يمكن استخدامه في عملية التخصيص المستهدف، إذ تتمتع روبوتات المحادثة بإمكانية الوصول إلى كميات هائلة من البيانات التي يمكنها جمعها لإنشاء ملفات تعريف شخصية، ويمكّنهم ذلك من تخصيص المحتوى بناءً على تفضيلاتك، ومن خلال التخصيص المستهدف، يمكن للذكاء الاصطناعي إقناع الأفراد أو تعزيز آرائهم بصورة أكبر.


التأثير على الاقتصاد

يمكن أن يؤدي استخدام الذكاء الاصطناعي كأداة للمعلومات المضللة إلى آثار سلبية على الاقتصاد، فعلى سبيل المثال يمكن أن تخضع الأسواق المالية للتلاعب قصير الأجل، ومن الممكن أيضًا التلاعب بأسعار الأسهم، إذ تستهدف المعلومات المضللة إحدى المشاريع أو الشركات، مما يؤدي إلى انخفاض قيمة الأسهم الخاصة بها، كما أن الشائعات حول الشركات الصغيرة والمحلية يمكنها الإضرار بهذه الشركات بشكل كبير.


التأثير على عالم السياسة

وفقًا لتقرير رويترز لعام 2023، قد يؤثر تطور تكنولوجيا الذكاء الاصطناعي على انتخابات 2024 الأمريكية، إذ يسلط التقرير الضوء على إمكانية الوصول إلى أدوات مثل Midjourney و DALL-E التي يمكنها بسهولة إنشاء محتوى ملفق والتأثير على الآراء الجماعية للأشخاص.

من ناحية أخرى، يمكن أن يشجع التزييف العميق السياسيين على التهرب من المساءلة، إذ يمكنهم دائمًا الادعاء بسهولة أن تسجيل الصوت أو الفيديو هو في الواقع مُنشأ بواسطة التزييف العميق.

وتعد عواقب استخدام تقنية التزييف العميق لأغراض سياسية ذات شقين، أولًا تسهيل نشر الأخبار المزيف، ثانيًا مقاطع الفيديو تُقنع أكثر من النصوص أو الصور أن شيئًا وهميًا قد حدث بالفعل.


التأثير على الثقة في التكنولوجيا والإنترنت

عندما ينتشر استخدام الذكاء الاصطناعي لنشر المعلومات المضللة، قد يصعب على المستخدمين التمييز بين المعلومات الحقيقية والزائفة، مما يؤدي إلى شكهم في جودة المحتوى المُتاح عبر الإنترنت، كما قد يؤدي استخدام الذكاء الاصطناعي في نشر المعلومات المضللة إلى انخفاض الثقة في التكنولوجيا نفسها، وقد يبدأ الناس في التشكيك في الفوائد والتطورات الإيجابية للذكاء الاصطناعي ويرونه بأنه أداة للتلاعب والخداع فقط.


التأثير على التعليم والثقافة

قد يُستخدم الذكاء الاصطناعي لنشر الأبحاث العلمية والمعلومات الثقافية المضللة، إذ يستطيع توليد مقالات وأوراق بحثية زائفة تبدو مصدرًا موثوقًا بها، مما يؤثر على جودة المعرفة، ويعوق التقدم العلمي والثقافي.


الحلول الممكنة للحد من استخدام الذكاء الاصطناعي في نشر المعلومات المضللة

في الواقع، تُستخدم تقنيات الذكاء الاصطناعي أكثر في إنتاج ونشر المعلومات المضللة والمغلوطة، مما يمكن أن يؤدي إلى تشويش الرأي العام وتفتيته، وإثارة الفوضى الاجتماعية، لذلك فإن الحاجة إلى حلول للحد من استخدام الذكاء الاصطناعي في نشر المعلومات المضللة أمر ضروري، ويجب اتخاذ التدابير اللازمة للحد من هذه الممارسات، وتتضمن هذه التدابير ما يلي


التنظيم والقوانين: كيف يمكن للقوانين والتنظيمات أن تساعد في الحد من هذه الممارسة؟

توجد العديد من الحلول الممكنة قانونيًا للحد من استخدام الذكاء الاصطناعي في نشر المعلومات المضللة، ومنها:

  • تعزيز الشفافية: تستطيع القوانين والتنظيمات طلب الشفافية من المنظمات والشركات المسؤولة عن تطوير واستخدام التكنولوجيا الذكية، ويجب على هذه الشركات كشف طرق عمل الخوارزميات والمعايير المستخدمة في تصنيف المحتوى وفلترته، وهذا يمكن أن يساعد الجمهور على فهم كيفية عمل الذكاء الاصطناعي وتقييم المعلومات التي يتلقونها.
  • تعزيز المساءلة: يمكن للقوانين والتنظيمات تطبيق متطلبات صارمة على الشركات التي تطور تكنولوجيا الذكاء الاصطناعي، كما يمكنها أن تطالب بضمان مساءلة الشركات عن المحتوى الذي يصل من خلال منصاتها، كما يجب أن تكون هناك آليات للإبلاغ عن المحتوى المضلل ومعاقبة المخالفين.
  • التعاون الدولي: يجب التعاون بين الدول والمنظمات الدولية لتطوير إطار قانوني، وتنظيمي عالمي لمكافحة المعلومات المضللة بواسطة الذكاء الاصطناعي.

وفي ظل تصارع حكومات الدول في جميع أنحاء العالم، من أجل الوصول إلى اتفاق يُنظم استخدام الذكاء الاصطناعي، صوت أعضاء البرلمان الأوروبي بالفعل مؤخرًا لصالح قانون الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي، وهذا القانون - الأول من نوعه - سيضع إطارًا قانونيًا صارمًا يحكم استخدام الذكاء الاصطناعي، كما سوف يتعين على الشركات الامتثال له.



التحسينات التكنولوجية: كيف يمكن استخدام الذكاء الاصطناعي نفسه للكشف والقضاء على المعلومات المضللة؟

ربما يكون من الصعب حماية نفسك من المعلومات المضللة ومنها مقاطع الفيديو المزيفة، لكن توجد طرقًا تعمل بها الشركات لتسهيل اكتشاف التزييف العميق، إذ توجد مجموعة متنوعة من الأدوات التي تهدف إلى مكافحة مقاطع الفيديو المزيفة الخبيثة، وتُستخدم العديد من هذه الأدوات الذكاء الاصطناعي للكشف عن التلاعب في مقاطع الفيديو.

أنشأت مؤسسة AI Foundation مكوّنًا إضافيًا للمتصفح يسمى Reality Defender للمساعدة في اكتشاف محتوى التزييف العميق عبر الإنترنت، بينما يقوم مكون إضافي آخر وهو SurfSafe ، بإجراء فحوصات مماثلة، وتهدف هاتان الأداتان إلى مساعدة مستخدمي الإنترنت على تمييز الحقيقة من الخيال.

كما توسعت مواقع التحقق من الحقائق إذ أطلقت Microsoft تقنية للمساعدة في مكافحة مقاطع الفيديو المزيفة، وحتى وزارة الدفاع الأمريكية استثمرت في برمجيات لاكتشاف التزييف العميق.

توجد كذلك أدوات لمراقبة كيفية انتشار القصص التي لم يُتحقق منها، والتحقق من صحة هذه القصص على وسائل التواصل الاجتماعي العامة، مثل أداة Hoaxy من مرصد جامعة إنديانا لوسائل الإعلام الاجتماعية، إذ تتتبع Hoaxy النشاط عبر الإنترنت المتعلق بالقصص والتحقق من الحقائق من قبل أطراف ثالثة لتلك القصص.

ومن ضمن الأدوات التي يمكنها أن اكتشاف ما إذا كان النص مكتوب بواسطة إنسان أم آلة، فهناك أداة متاحة مجانًا للجهور تسمى "GPTZero".


التعليم والوعي: الدور الذي يمكن أن يلعبه التعليم والتوعية في حماية الناس من المعلومات المضللة

لن ينجح الذكاء الاصطناعي بمفرده ما لم يُثقف الجماهير - وخاصة الشباب - ليكونوا يقظين من المعلومات المضللة، وحاليًا تقوم بعض المدارس في الهند بتدريس طرق التفكير النقدي وتغرس عادات التحقق من الحقائق في طلاب المدارس الثانوية، فالأخبار المزيفة ليست مجرد خوارزميات، بل تتعلق بالفلسفة الكامنة وراء كيفية تعاملنا مع المعرفة - سواء كانت جيدة أم سيئة.

يمكن للحكومات والمؤسسات التربوية العمل على تطوير برامج تعليمية تساهم في زيادة وعي الجمهور بشأن المعلومات المضللة وكيفية التعامل معها، فمثلاً أُدخل التثقيف الوسائطي في فنلندا في المناهج التعليمية المدرسية، وفي سن باكرة يتعلم الفنلنديون تحليل الأخبار التي يستهلكونها والتدقيق بالحقائق عبر مراجعة مصادر عدة، وتساعد هذه الجهود الناس في التمييز بين الأخبار الحقيقية والملفقة، فيغدون أقل عرضة للوقوع ضحايا محتوى غير موثوق سواء كان هذا المحتوى من إنتاج بشر حقيقيين أو ذكاء اصطناعي.



كيف يمكنك اكتشاف المعلومات المضللة لحماية نفسك من تلك المعلومات التي ينشرها الذكاء الاصطناعي؟

تُعد مكافحة انتشار المعلومات المضللة التي يسهلها الذكاء الاصطناعي قضية مُلحة في عالم اليوم، ويجب على الجميع أن يكونوا على دراية بها، إذن كيف يمكنك اكتشاف المعلومات الخاطئة التي حُصل عليها بواسطة الذكاء الاصطناعي؟

ذو صلة
  • تعامل مع المحتوى عبر الإنترنت بشك، إذا واجهت شيئًا يبدو متلاعبًا أو لا يصدق، تحقق من ذلك من خلال التدقيق.
  • قبل الوثوق بمقال إخباري أو منشور على وسائل التواصل الاجتماعي ، تأكد من أنه صادر من مصدر حسن السمعة.
  • احترس من مؤشرات التزييف العميق، مثل الوميض غير الطبيعي أو حركات الوجه، وسوء جودة الصوت، والصور المشوهة أو الباهتة، والافتقار إلى المشاعر الحقيقية في الكلام.
  • استخدم مواقع التحقق من صحة المعلومات للتحقق من دقة المعلومات.

في النهاية، باتباع هذه الخطوات، يمكنك تحديد وحماية نفسك من المعلومات المضللة المدفوعة بالذكاء الاصطناعي.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة