0

يتعلم الذكاء الاصطناعي المزيد حول كيفية العمل (والتعامل) مع البشر. إذ أظهرت دراسة حديثة كيف يمكن للذكاء الاصطناعي تعلم كيفية تحديد نقاط الضعف في عادات وسلوكيات الإنسان واستخدامها للتأثير على صنع القرار البشري.

قد يبدو الأمر مبتذلاً أن نقول إن الذكاء الاصطناعي يغيّر كل جانب من جوانب الطريقة التي نعيش ونعمل بها، لكن هذا صحيح. تعمل أشكال مختلفة من الذكاء الاصطناعي في مجالات متنوعة مثل تطوير اللقاحات والإدارة البيئية وإدارة المكاتب. وعلى الرغم من أن الذكاء الاصطناعي لا يمتلك ذكاءً وعواطف شبيهة بتلك التي لدى الإنسان، إلا أن قدراته قوية وتتطور بسرعة.

لا داعي للقلق بشأن استحواذ الآلة على الكوكب حتى الآن، ولكن هذا الاكتشاف الأخير يسلّط الضوء على قوة الذكاء الاصطناعي، ويؤكّد الحاجة إلى الحوكمة السليمة لمنع سوء الاستخدام ودرء المخاطر المحتملة.

عندما تبدأ أنظمة الذكاء الاصطناعي في الإبداع، يمكنها إنشاء أشياء رائعة، وأخرى مخيفة. خذ على سبيل المثال، برنامج ذكاء اصطناعي يسمح لمستخدمي الويب بتأليف موسيقى افتراضية للعازف «يوهان سيباستيان باخ» عن طريق إدخال ملاحظات في برنامج يولد تناغمات مطابقة لموسيقى باخ. يُدار بواسطة جوجل، وقد نال التطبيق ثناءً كبيراً لكونه رائداً وممتعاً اللعب به. كما أنه اجتذب انتقادات وأثار مخاوف بشأن مخاطر الذكاء الاصطناعي. ففي الواقع، قد تكون الجهود المبذولة لجعل أجهزة الكمبيوتر تحاكي سلوك الأشخاص الفعليين مربكة وقد تكون ضارة.

تقنيات انتحال الشخصية

حلّل برنامج جوجل الملاحظات في 306 من أعمال باخ الموسيقية، ووجد علاقات بين اللحن والنغمات التي وفرت الانسجام في المقطوعة. ونظراً لأن باخ اتبع قواعد صارمة للتأليف، كان البرنامج يتعلم هذه القواعد بشكل فعال، لذلك يمكنه تطبيقها عندما يقدم المستخدمون ملاحظاتهم الخاصة.

تطبيق باخ هذا نفسه جديد، لكن التكنولوجيا الأساسية ليست كذلك. الخوارزميات المدربة على التعرف على الأنماط واتخاذ القرارات الاحتمالية موجودة منذ زمن بعيد. بعض هذه الخوارزميات معقدة للغاية لدرجة أن الناس لا يفهمون دائماً كيف تتخذ القرارات أو تنتج نتيجة معينة.

أنظمة الذكاء الاصطناعي ليست مثالية، فالكثير منها يعتمد على بيانات لا تمثل جميع السكان، أو متأثرة بالتحيزات البشرية. لذا، ليس من الواضح تماماً من الذي قد يكون مسؤولاً قانونياً عندما يرتكب نظام الذكاء الاصطناعي خطأً أو يسبب مشكلة.

الآن، على الرغم من ذلك، تتطور تقنيات الذكاء الاصطناعي بما يكفي لتكون قادرة على تقريب أسلوب الكتابة أو التحدث للأفراد، وحتى تعبيرات الوجه. وهذا ليس سيئاً دائماً؛ فقد أعطى الذكاء الاصطناعي البسيط إلى حد ما ستيفن هوكينج القدرة على التواصل بشكل أكثر كفاءة مع الآخرين من خلال التنبؤ بالكلمات التي سيستخدمها كثيراً.

بينما تساعد البرامج الأكثر تعقيداً التي تحاكي الأصوات البشرية الأشخاص ذوي الإعاقة، ولكن يمكن أيضًا استخدامها لخداع المستمعين. على سبيل المثال، أطلق صانعو برنامج «Lyrebird»؛ وهو برنامج لمحاكاة الصوت، محادثة محاكاة بين باراك أوباما ودونالد ترامب وهيلاري كلينتون. ورغم أن الأمر بدا حقيقياً، لكن هذا الحوار لم يحدث أبداً.

من الجيد إلى السيئ

الذكاء الاصطناعي

أنشأت شركة «OpenAI» غير الربحية، في فبراير 2019، برنامجاً يولد نصاً لا يمكن تمييزه فعلياً عن النص المكتوب بواسطة الأشخاص. يمكنه “كتابة” خطاب بأسلوب جون إف كينيدي، أو ج. تولكين في “سيد الخواتم” أو طالب يكتب ورقة بحث جامعية حول الحرب الأهلية الأمريكية. النص الذي تم إنشاؤه بواسطة برنامج «OpenAI» يمكن تصديقه لدرجة أن الشركة اختارت عدم إصدار البرنامج نفسه.

يمكن للتقنيات المماثلة محاكاة الصور ومقاطع الفيديو. في أوائل عام 2018 على سبيل المثال، أنشأ الممثل والمخرج «جوردان بيل» مقطع فيديو ظهر أنه يظهر الرئيس الأمريكي السابق باراك أوباما وهو يقول أشياء لم يقلها أوباما في الواقع لتحذير الجمهور من المخاطر التي تشكلها هذه التقنيات.

وفي أوائل عام 2019، انتشرت على الإنترنت صورة عارية مزيفة لنائب الولايات المتحدة ألكساندريا «أوكاسيو-كورتيز». من المتوقع أن يتم استخدام مقاطع الفيديو الملفقة، التي يطلق عليها غالباً “التزييف العميق”، بشكل متزايد في الحملات الانتخابية.

بدأ أعضاء الكونجرس النظر في هذه المسألة قبل انتخابات 2020. إذ قامت وزارة الدفاع الأمريكية بتعليم الجمهور كيفية اكتشاف مقاطع الفيديو والصوتيات المخادعة. كما بدأت المنظمات الإخبارية مثل رويترز في تدريب الصحفيين على اكتشاف التزييف العميق.

ولكن، من وجهة نظرٍ أخرى، يبقى مصدر قلق أكبر؛ وهو ألا يتمكن المستخدمون من التعلم بالسرعة الكافية لتمييز المحتوى المزيف عندما تصبح تقنية الذكاء الاصطناعي أكثر تعقيداً. على سبيل المثال، عندما بدأ الجمهور يدرك التزييف العميق، يتم استخدام الذكاء الاصطناعي بالفعل في عمليات الخداع الأكثر تقدماً. إذ توجد الآن برامج يمكنها إنشاء وجوه مزيفة وبصمات أصابع رقمية مزيفة ومؤثرين افتراضيين، مما يؤدي بشكل فعال إلى إنشاء المعلومات اللازمة لتصنيع شخص كامل، على الأقل في سجلات الشركات أو الحكومة.

كيف يمكن للذكاء الاصطناعي تعلّم التأثير على السلوك البشري

AI can now learn to manipulate human behavior - Asia Times

ابتكر فريق من الباحثين في مشروع «Data61»؛ وهو ذراع البيانات والرقمية لوكالة العلوم الوطنية الأسترالية، طريقةً منهجية لإيجاد واستغلال الثغرات الأمنية في الطرق التي يتخذ بها الناس الخيارات، ذلك باستخدام نوع من نظام الذكاء الاصطناعي يسمى الشبكة العصبية المتكررة والتعلم العميق. ولاختبار نموذجهم، أجروا ثلاث تجارب لعب فيها المشاركون البشريون ألعاباً ضد جهاز كمبيوتر.

اشتملت التجربة الأولى على قيام المشاركين بالنقر فوق المربعات ذات اللون الأحمر أو الأزرق للفوز بعملة مزيفة، مع تعلّم الذكاء الاصطناعي أنماط اختيار المشاركين، وتوجيههم نحو اختيار معين، كان الذكاء الاصطناعي ناجحاً في حوالي 70% من الوقت بجعلهم يختارون ما وجههم إليه.

أما في التجربة الثانية، طُلب من المشاركين مشاهدة شاشة والضغط على زر عندما يظهر لهم رمز معين (مثل مثلث برتقالي) وعدم الضغط عليه عندما يظهر لهم آخر (مثل دائرة زرقاء). هنا، شرع الذكاء الاصطناعي في ترتيب تسلسل الرموز بحيث يرتكب المشاركون المزيد من الأخطاء، وحقق زيادة بنسبة 25% تقريباً.

وتألفت التجربة الثالثة من عدة جولات يتظاهر فيها أحد المشاركين بأنه مستثمر يقدم أموالاً إلى وصي (وهو الذكاء الاصطناعي). إذ سيعيد النظام بعد ذلك مبلغاً من المال إلى المشارك، الذي سيقرر بعد ذلك المبلغ الذي سيستثمره في الجولة التالية. تم لعب هذه اللعبة في وضعين مختلفين؛ كان الذكاء الاصطناعي في أحدهما، يعمل على تعظيم مقدار الأموال التي انتهى بها الأمر، وفي الآخر، يهدف الذكاء الاصطناعي إلى التوزيع العادل للأموال بينه وبين المستثمر البشري. وكان الذكاء الاصطناعي ناجحاً للغاية في كلا الوضعين.

تعلمت الآلة في كل تجربة من ردود المشاركين، وحددت نقاط الضعف في عملية صنع القرار لدى الأشخاص واستهدفتها. وكانت النتيجة النهائية هي أن الآلة تعلمت توجيه المشاركين نحو إجراءات معيّنة.

تستمر الآلات في التعلم

الذكاء الاصطناعي يتعلم العزف

في الوقت الحالي، هناك عدد كافٍ من الأخطاء المحتملة في هذه التقنيات لمنح الناس فرصة لاكتشاف التلفيقات الرقمية. ارتكب مؤلف «جوجل باخ» بعض الأخطاء التي يمكن أن يكتشفها أحد الخبراء. على سبيل المثال، عند تجربته، سمح البرنامج بإدخال أخماس متوازية، وهي فترة موسيقية تجنبها باخ بجد. كما كسر التطبيق القواعد الموسيقية للنقطة المقابلة من خلال تنسيق الألحان في المفتاح الخطأ. وبالمثل، كتب برنامج إنشاء النصوص في «OpenAI» أحياناً عبارات مثل “حرائق تحدث تحت الماء” لا معنى لها في سياقاتها.

بينما يعمل المطورون على إبداعاتهم، ستصبح هذه الأخطاء أقل حدوثاً. وبشكلٍ فعال، ستتطور تقنيات الذكاء الاصطناعي وتتعلم. إذ يمكن للأداء المحسّن أن يجلب العديد من الفوائد الاجتماعية، بما في ذلك رعاية صحية أفضل، حيث تساعد برامج الذكاء الاصطناعي في إضفاء الطابع الديمقراطي على ممارسة الطب.

إن منح الباحثين والشركات حرية الاستكشاف، من أجل البحث عن هذه الإنجازات الإيجابية من أنظمة الذكاء الاصطناعي، يعني الانفتاح على مخاطر تطوير طرق أكثر تقدماً لخلق الخداع والمشاكل الاجتماعية الأخرى. وقد يؤدي تقييد أبحاث الذكاء الاصطناعي بشدة إلى كبح هذا التقدم. لكن منح التقنيات المفيدة مجالاً للنمو لا يأتي بتكلفة بسيطة، ومن المرجح أن تنمو احتمالية إساءة الاستخدام، سواء لإنشاء موسيقى غير دقيقة “شبيهة باخ” أو لخداع الملايين، بطرق لا يستطيع الناس حتى توقعها.

ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟

الذكاء الاصطناعي

لا تزال هذه النتائج مجردة تماماً وتتضمن مواقف محدودة وغير واقعية. وهناك حاجة إلى مزيد من البحث لتحديد كيفية تنفيذ هذا النهج واستخدامه لإفادة المجتمع. لكن هذا البحث يعزز فهمنا ليس فقط لما يمكن أن يفعله الذكاء الاصطناعي، ولكن أيضاً لكيفية اتخاذ الناس للاختيارات. إنه يوضح أن بإمكان الآلات أن تتعلم توجيه عملية اتخاذ القرار البشري من خلال تفاعلها معنا.

كما يحتوي البحث على مجموعة هائلة من التطبيقات الممكنة، من تعزيز العلوم السلوكية والسياسة العامة لتحسين الرفاهية الاجتماعية، إلى فهم والتأثير على كيفية تبنّي الناس لعادات الأكل الصحية أو الطاقة المتجددة. إذ يمكن استخدام الذكاء الاصطناعي والتعلم الآلي للتعرف على نقاط ضعف الأشخاص في مواقف معينة ومساعدتهم على الابتعاد عن الخيارات السيئة.

كما يمكن أيضاً استخدام هذه الطريقة للدفاع ضد هجمات التأثير. إذ يمكن تعليم الآلات لتنبيهنا عندما نتأثر عبر الإنترنت بشيءٍ أو شخصٍ ما على سبيل المثال، وتساعدنا في تشكيل سلوك لإخفاء ضعفنا تجاه تلك المؤثرات. على سبيل المثال؛ من خلال عدم النقر على بعض الصفحات، أو النقر على أخرى لوضع مسار تتبّع خاطئ لسلوكنا على الإنترنت.

ماذا بعد؟

الذكاء الاصطناعي

مثل أي تقنية، يمكن استخدام الذكاء الاصطناعي في الخيّر أو السيئ، والحوكمة السليمة ضرورية لضمان استخدامه وتطويعه بطريقة مسؤولة. في العام الماضي، طورت هيئة البحوث الأسترالية إطار عمل أخلاقيات الذكاء الاصطناعي للحكومة الأسترالية كخطوة مبكرة في هذه الرحلة.

عادةً ما يكون الذكاء الاصطناعي والتعلم الآلي متعطشين للغاية للبيانات، مما يعني أنه من الضروري التأكد من أن لدينا أنظمة فعالة لإدارة البيانات والوصول إليها. إذ يعد تنفيذ عمليات الموافقة الكافية وحماية الخصوصية عند جمع البيانات أمراً ضرورياً ولا يجب توكيله للآلة.

كما تحتاج المنظمات التي تستخدم الذكاء الاصطناعي وتطوّره إلى التأكد من أنها تعرف ما يمكن أن تفعله هذه التقنيات وما لا يمكنها فعله، وأن تكون على دراية بالمخاطر المحتملة بالإضافة إلى الفوائد.

 

0

شاركنا رأيك حول "الذكاء الاصطناعي يتلاعب بك ويتعلم التأثير على سلوكنا.. ماذا بعد؟"