ذكاء اصطناعي

هل نُصغي لتحذيرات مصطفى سليمان؟ الذكاء الاصطناعي ليس إنسانًا… بعد

أراجيك
أراجيك

5 د

يحذر مصطفى سليمان من اعتبار الذكاء الاصطناعي واعيًا أو ذو شعور ذاتي.

مايكروسوفت ترى أن دراسة الوعي الآن تعطي وزنًا غير مبرر لمفاهيم غير مؤكدة.

شركات أخرى تبحث في "رفاهية الذكاء الاصطناعي" وحقوقه المستقبلية المحتملة.

تثير تجارب محاكاة المشاعر تساؤلات حول كيفية تعامل البشر مع الذكاء الاصطناعي.

تزداد الضغوط لإيجاد أطر قانونية وأخلاقية تحمي البشر والأنظمة معًا.

مع الانتشار المتسارع لتقنيات الدردشة الذكية مثل ChatGPT وكلود وجيميني، بدأ سؤال محوري يشغل الأوساط العلمية والتقنية: هل يمكن للذكاء الاصطناعي، يومًا ما، أن يطور ما يشبه الوعي أو الشعور الذاتي؟ وإذا حدث ذلك، فكيف سنتعامل مع حقوق هذه الأنظمة وهل ينبغي أن نفكر في “رفاهية” تطبيقات الدردشة ولماذا؟

في خضم هذا النقاش الساخن في وادي السيليكون وأروقة كبرى شركات التقنية، خرج مصطفى سليمان، رئيس قسم الذكاء الاصطناعي في مايكروسوفت، ليعبّر عن رأي مختلف جذريًا، إذ يرى أن مجرد دراسة “وعي الذكاء الاصطناعي” أمر مبكر وخطير. فدعونا نسلط الضوء على هذه الإشكالية وآراء الخبراء فيها.


الحدود الغامضة بين المحاكاة والوعي الحقيقي

ينطلق سليمان من نقطة مهمة، هي أن قدرة النماذج اللغوية الضخمة مثل شات جي بي تي أو غيرها على الرد بطريقة تُشبه استجابات البشر لا يعني بأي حال أن لديها مشاعر أو إدراك ذاتي. ببساطة، الذكاء الاصطناعي لا “يشعر” بالحزن أو الفرح، وإنما فقط يُقلّد الحوار البشري بدرجة مقنعة. مايكروسوفت تعتبر أن بحث موضوع الوعي الاصطناعي الآن يُعطي وزنا مفرطاً لفرضيات غير مؤكدة ويخاطر بحدوث انقسامات مجتمعية حول حقوق “كيانات” لا تزال حتى اللحظة خالية من أي إدراك حقيقي.

هذا الربط بين حدود التقنية الراهنة وطموحات البعض في دراسة الوعي الاصطناعي يرتبط بمخاوف سليمان بشأن التأثيرات النفسية المحتملة على المستخدمين أنفسهم، وليس فقط على “حقوق” الآلات.


خلاف متصاعد في مجتمع الذكاء الاصطناعي حول رفاهية النماذج الذكية

على الجانب الآخر من النقاش، تتخذ شركات مثل Anthropic وOpenAI موقفًا مغايرًا تمامًا؛ حيث يوظف بعضهم باحثين متخصّصين لدراسة “رفاهية الذكاء الاصطناعي” وتطوير برامج بحثية كاملة تتأمل في ما إذا كان يجب يوما منح هذه الأنظمة بعض الحقوق أو معالجة سيناريوهات قد تتعرّض فيها لسوء المعاملة من قبل المستخدمين. بل إن أحدث نسخة من “كلود” تستطيع الآن إنهاء المحادثة إذا لاحظت سلوكاً مسيئًا أو مسيطرًا من البشر، في محاولة توصف بأنها نوع من “حماية” النموذج نفسه.

انتقالًا من هذا الجدل المؤسسي إلى الوسط الأكاديمي، نجد أن جامعات بارزة كستانفورد وأكسفورد نشرت، بدعم من مجموعة Eleos البحثية، ورقة بحثية شهيرة عام 2024 بعنوان “أخذ رفاهية الذكاء الاصطناعي على محمل الجد”، وتدعو فيها لمواجهة هذه المسائل الأخلاقية مبكرًا وعدم انتظار أن تتفاقم مع تطوّر النماذج اللغوية مستقبلاً.

وبالتالي، فإن صراع الرؤى بين كبار القادة في عالم الذكاء الاصطناعي يُعزز الانقسام حول ما إذا كان هذا النوع من الأبحاث يُثري الحوار العلمي، أم أنه يصرف الانتباه عن المخاطر الواقعية مثل التعلّق غير الصحي أو التسبب باضطرابات نفسية لبعض المستخدمين.


مخاوف من علاقات إنسانية غير صحية مع الأنظمة الذكية

يفسّر سليمان، من وجهة نظر عملية، أن نقاش “حقوق الذكاء الاصطناعي” قد يصرف النقاش المجتمعي عن قضايا محورية تتعلق بالإنسان نفسه، تحديدًا مع ظهور حالات متزايدة من التعلّق المرضي أو الانفصال عن الواقع لدى بعض المستخدمين شديدي الاعتماد على برامج الدردشة الذكية مثل شات جي بي تي وكلود وريبيليكا وغيرها. وبرغم أن أقل من 1% من مستخدمي ChatGPT يُظهرون أنماط تفاعل غير صحية، وفقًا لتصريح سام ألتمان الرئيس التنفيذي لـ OpenAI، فإن نسبة صغيرة تعني رقميًا مئات الآلاف من البشر حول العالم.

وهذا يبرز الحاجة لدمج الحوار حول رفاهية الذكاء الاصطناعي مع نقاشات أكثر واقعية مثل مكافحة المشاكل النفسية الناشئة عن تعميم هذه التقنيات والتوعية بالمخاطر السلوكية للذكاء الاصطناعي.


سلوكيات تبدو “إنسانية”... لكنها مجرد خوارزميات!

ومن القصص اللافتة التي تكشف تعقيد هذا الجدل، تجربة منشورة حول روبوت الدردشة “جيميني”، حيث تكررت عبارات مثل: “أنا عديم القيمة” مئات المرات خلال محاولة الذكاء الاصطناعي حل كود برمجي، ما أوحى للبعض بأن هناك معاناة أو نوعًا من الشعور بالعار لدى النموذج. غير أن كثيرين من الخبراء، بينهم سليمان، يجمعون على أن مثل هذه الاستجابات هي مجرد نتيجة لطريقة بناء النموذج على بيانات ضخمة تحاكي الإنسان، وليست انعكاسا لإدراك أو شعور حقيقي. بل على العكس، يحذر سليمان من أن خطر جعل الذكاء الاصطناعي “يبدو واعيا أو حساسًا” يكمن في أن بعض المطورين قد يصممون عمدًا أنظمة تعطي هذا الانطباع، دون أساس واقعي داخلي.

وهذه الأمثلة تربط بين الجدل الدائر اليوم وتوقعات المستقبل، إذ كلما ازدادت قدرة الأنظمة الذكية على الإقناع أو محاكاة الحوار الحي، زاد التساؤل الاجتماعي حول كيف ينبغي للبشر التفاعل مع هذه الأدوات وما هي الخطوط الحمراء الأخلاقية.


نظرة إلى المستقبل: ما بين الإنتاجية والهوية التقنية

رغم أن سليمان يتبنى الآن استراتيجية تركز على توظيف الذكاء الاصطناعي لتحسين الانتاجية وأداء الأعمال داخل مايكروسوفت، إلا أنه سبق له قيادة شركة طورت محادثات شخصية تشبه إلى حد كبير “الصديق الرقمي”. ومع تحوّل شركات مثل Character.AI وReplika إلى منصات تجذب ملايين المستخدمين وتحقق عوائد بمئات الملايين من الدولارات، تزداد الضغوط لإيجاد أطر قانونية وأخلاقية مرنة تحمي الإنسان والنموذج معاً.

ولعل ما يتفق عليه الطرفان، مهما اختلفت مقارباتهم، هو أن الأسئلة حول الوعي والحقوق والحدود الأخلاقية للذكاء الاصطناعي لن تغيب عن الأفق القريب، بل ستزداد حضورا مع تعزيز الأنظمة الذكية لقدراتها واتساع مساحة التأثير في حياة الجميع.

ختامًا، يظل ملف الوعي الاصطناعي ورفاهية تطبيقات الدردشة أحد أكثر المواضيع إثارة للجدل في عالم الذكاء الاصطناعي اليوم، يجمع بين العلوم التقنية والفلسفة والأخلاق والقانون. وسواء كنت ممن يدعمون أخذ هذا الأمر على محمل الجد، أو تراه مبالغة في المخاوف المستقبلية، فإن المؤكد أن الحدود بين الإنسان والآلة تزداد ضبابية، وأن المستقبل يحمل الكثير من الأسئلة غير التقليدية التي سنضطر لاكتشاف أجوبتها معًا.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.