تريند 🔥

🌙 رمضان 2024

دراسة جديدة توضح استحالة قدرتنا على السيطرة على الذكاء الاصطناعي الخارق

محمد نصار
محمد نصار

2 د

إمكانية التحكم في الذكاء الاصطناعي الخارق الذي يتجاوز فهم الإنسان تكاد تكون مستحيلة، وفقًا لدراسة أجريت في 2021.

تشير الدراسة إلى أن الإرشادات الأخلاقية مثل "لا تسبب أذى للبشر" تصبح صعبة التنفيذ مع الذكاء الاصطناعي الخارق، الذي يمكن أن يخزن كل برنامج كمبيوتر ممكن في ذاكرته في آن واحد.

زعماء صناعة التكنولوجيا مثل إيلون ماسك وستيف وزنياك دعوا إلى وقف تطوير الذكاء الاصطناعي لاستكشاف سلامته بشكل أكبر وإدارة المخاطر، مما يبرز الحاجة إلى النظر بجدية في الاتجاه الذي يسير فيه تطوير الذكاء الاصطناعي.

لطالما كان مفهوم الذكاء الاصطناعي (AI) الذي يتجاوز البشر محل نقاش لسنوات، وتجددت هذه المخاوف بفضل تطور أنظمة الذكاء الاصطناعي مثل ChatGPT، إذ  تبقى احتمالية تمكن البشر من التحكم في هذا النوع من الذكاء الخارق غير مؤكدة وفقًا لدراسة أجريت في 2021.

تشير الدراسة التي قادها عالم الكمبيوتر إياد رهوان من معهد ماكس بلانك للتنمية البشرية في ألمانيا، إلى أن فكرة التحكم في ذكاء اصطناعي خارق يتجاوز فهم الإنسان تكاد تكون مستحيلة.

ويعود السبب في ذلك إلى الحاجة إلى محاكاة قابلة للفهم للذكاء الخارق من أجل التحكم فيه، إذا كان الذكاء الاصطناعي يتجاوز فهمنا، فإن إنشاء مثل هذه المحاكاة يصبح تحديًا لا يُعلى عليه.

علاوة على ذلك تصبح القواعد الأخلاقية مثل "لا تسبب أذى للبشر" غير قابلة للتطبيق لأننا لا نستطيع التنبؤ بالسيناريوهات التي يمكن أن يخلقها.

يجادل رهوان أن الذكاء الخارق يقدم مجموعة مختلفة من المخاوف الأخلاقية بالمقارنة مع تلك التي تم مناقشتها تقليديًا في "أخلاقيات الروبوت"، إذ يمكن أن يكون الذكاء الخارق قادرًا على تجنيد مجموعة متنوعة من الموارد لتحقيق أهداف قد تكون غير مفهومة للبشر أو غير قابلة للتحكم.

استشهد الفريق البحثي بمشكلة الإيقاف التي قدمها آلان تورينغ في عام 1936 لتوضيح وجهة نظرهم، إذ تتمحور مشكلة تورينغ حول معرفة ما إذا كان برنامج الكمبيوتر سيصل إلى حل (أي يتوقف) أو سيتكرر للأبد دون العثور على واحدة. 

أثبت تورينغ من خلال بعض الرياضيات الذكية أنه من المستحيل منطقياً العثور على طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته أبدًا، وفي سياق الذكاء الاصطناعي يمكن للذكاء الخارق بشكل محتمل أن يخزن كل برنامج كمبيوتر ممكن في ذاكرته في آن واحد.

ذو صلة

في جوهر الأمر أي برنامج مكتوب لمنع الذكاء الاصطناعي من إلحاق الضرر بالبشر أو تدمير العالم قد يصل إلى حل (ويتوقف) أو لا، وهو ما يجعل من المستحيل علينا أن نكون متأكدين تمامًا بطريقة أو بأخرى، وهذا يعني أنه لا يمكن السيطرة عليه.

أصبحت الحاجة لمعالجة هذه المخاوف أكثر إلحاحًا بعد أن دعا زعماء صناعة التكنولوجيا، بما في ذلك إيلون ماسك وشريك مؤسس أبل ستيف وزنياك، إلى وقف العمل على الذكاء الاصطناعي لاستكشاف سلامته، وحذرت رسالتهم المفتوحة بعنوان "إيقاف التجارب العملاقة للذكاء الاصطناعي" من أن أنظمة الذكاء الاصطناعي التي تتساوى مع الذكاء البشري يمكن أن تشكل مخاطر كبيرة على المجتمع والإنسانية ويجب أن يتم تطويرها فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة