أكثر من 800 شخصية عالمية تطالب بوقف تطوير “الذكاء الفائق” قبل فوات الأوان

أراجيك
أراجيك

3 د

في خطوة غير مسبوقة تعكس تصاعد المخاوف من مستقبل الذكاء الاصطناعي، وقّع أكثر من 850 شخصية عامة، من بينهم مؤسس شركة “آبل” ستيف ووزنياك ومؤسس مجموعة “فيرجن” ريتشارد برانسون، بيانًا يدعو لفرض حظر على تطوير ما يُعرف بـ“الذكاء الفائق” أو “Superintelligence”، وهو الجيل المفترض من الذكاء الاصطناعي القادر على التفوق على البشر في جميع المهام العقلية تقريبًا. البيان نُشر هذا الأسبوع عبر موقع خاص وجمع توقيعات من علماء حاسوب ومفكرين وخبراء تكنولوجيا من الصف الأول.

تضم القائمة أيضًا أسماء بارزة في عالم أبحاث الذكاء الاصطناعي مثل يوشوا بنجيو وجيفري هينتون، اللذين يُلقّبان بـ“آباء الذكاء الاصطناعي”، إلى جانب ستيوارت راسل من جامعة كاليفورنيا في بيركلي. وهذا يعكس حجم القلق حتى بين من أسّسوا لهذا العلم حول تأثيراته المحتملة على الاقتصاد والوظائف والحريات الفردية.

التحرك جاء في وقت تحتدم فيه المنافسة بين شركات التكنولوجيا الكبرى مثل “OpenAI” التي يقودها سام ألتمان، وشركة “xAI” التابعة لإيلون ماسك، و“ميتا” التي أطلقت “Meta Superintelligence Labs”. هذه الشركات تسعى لتطوير نماذج لغوية ضخمة وذكية قادرة على محاكاة التفكير البشري بدرجة غير مسبوقة. لكن البيان يحذّر من أن استمرار هذا السباق دون رقابة صارمة قد يقود إلى فقدان السيطرة على التكنولوجيا، بحيث تصبح قادرة على اتخاذ قرارات خارج إرادة الإنسان.

وهذا التحذير لا يتوقف عند النواحي التقنية فحسب، بل يمتد ليشمل تهديدات اقتصادية وأمنية قد تطال الأمن القومي للدول وحياة الأفراد، في ظل احتمالات أن يحل الذكاء الاصطناعي مكان البشر في معظم المهن الذهنية.

اللافت أن البيان لم يأتِ من المختصين وحدهم؛ إذ وقّعه أيضًا سياسيون سابقون مثل رئيس هيئة الأركان الأميركية المشتركة الأسبق مايك مولن ومستشارة الأمن القومي السابقة سوزان رايس. كما شارك فيه شخصيات إعلامية محافظة مثل ستيف بانون وغلين بيك، إلى جانب دوق ودوقة ساسكس الأمير هاري وميغان ماركل والرئيسة السابقة لإيرلندا ماري روبنسون، مما يمنحه طابعًا عالميًا يعبر الانتماءات الفكرية والسياسية.

هذا التنوع في الأصوات يعكس اتساع القلق الجمعي من أن الذكاء الفائق قد يغير موازين القوة البشرية في الاقتصاد والسياسة والثقافة، ليصبح الإنسان مهددًا بفقدان السيطرة على مصيره.

البيان يدعو إلى وقف أي تطوير في مجال “الذكاء الفائق” إلى أن يتحقق إجماع علمي يؤكد إمكانية بنائه وضبطه بأمان، وإلى حين وجود دعم شعبي قوي له. واستند الموقعون إلى استطلاع رأي حديث أجرته مؤسسة “مستقبل الحياة”، أظهر أن أغلبية الأميركيين يفضلون وقف تطوير هذا النوع من الذكاء إلى أن يُثبت أنه آمن، فيما لا يؤيد سوى 5% فقط استمرار الأبحاث بسرعة من دون ضوابط.

ومع أن بعض مطوري الذكاء الاصطناعي مثل ألتمان وماسك أنفسهم حذّروا في مناسبات سابقة من مخاطر “الذكاء الخارق”، يرى كثيرون أن التحدي الحقيقي هو إيجاد توازن بين التقدّم التكنولوجي والحماية من تداعياته.

اليوم، يبدو أن النقاش حول الذكاء الاصطناعي لم يعد علميًا فقط، بل تحوّل إلى قضية مجتمعية تتطلب شراكة من العلماء والحكومات والمواطنين على حد سواء. فبين طموح البشرية في استغلال قدرات الآلة لحل الأزمات العالمية، وخوفها من أن تنقلب سلاحًا ضدها، يظل سؤال السيطرة مطروحًا بإلحاح: هل سنستطيع توجيه الذكاء الفائق… أم أنه من سيوجهنا؟

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.