LEAP26

شركات الذكاء الاصطناعي الكبرى تتواصل مع القادة الدينيين لرسم ملامح أخلاقيات المستقبل

عبد الرحمن عمرو
عبد الرحمن عمرو

3 د

تتجه الشركات التقنية نحو القيادات الدينية لإضافة بُعد أخلاقي للذكاء الاصطناعي.

نُظمت طاولة مستديرة بأمريكا للتباحث بين شركات الذكاء الاصطناعي والقيادات الدينية.

التكنولوجيا تتجاوز كونها أدوات تقنية وتؤثر على المعرفة والسلوكيات حالياً.

تتطلب الوتيرة السريعة للابتكار في الذكاء الاصطناعي معايير أخلاقية أعمق.

وجود القيادات الدينية يعكس اعترافًا بأهمية الجوانب الروحية في التطور التقني.

في لحظةٍ يتصاعد فيها القلق حول مستقبل الذكاء الاصطناعي، اختارت شركات تقنية كبرى أن تبحث عن إجابات خارج وادي السيليكون. لم تتجه هذه المرة إلى مختبرات أكاديمية أو هيئات تنظيمية، بل إلى قاعات يجلس فيها رجال دين ومفكرون روحيون، في محاولة لإدخال بُعد أخلاقي أعمق إلى معادلة التطوير التقني.


لقاء غير تقليدي حول الذكاء الاصطناعي

اجتمعت مؤخراً شركتا Anthropic وOpenAI مع قيادات دينية في نيويورك ضمن أول طاولة مستديرة لما سُمّي بـ ميثاق الإيمان والذكاء الاصطناعي. اللقاء، الذي نظمته منظمة التحالف الدولي للأديان من أجل مجتمعات أكثر أماناً، يهدف إلى بناء أرضية أخلاقية مشتركة يمكن أن تؤطر تطوير أنظمة الذكاء الاصطناعي المتقدمة.

الخطوة تعكس إدراكاً متزايداً بأن أنظمة التوليد اللغوي، ونماذج التعلم العميق، وخوارزميات اتخاذ القرار لم تعد أدوات تقنية فقط، بل أصبحت تشارك فعلياً في تشكيل المعرفة والتأثير على الأحكام والسلوكيات.


أخلاقيات تتجاوز القوانين

بحسب المشاركين، فإن وتيرة الابتكار في الذكاء الاصطناعي أسرع من قدرة التشريعات على المواكبة. ومن هنا جاء التفكير في مبادئ معيارية أوسع من النصوص القانونية، تستند إلى قيم إنسانية عميقة متجذرة في التقاليد الروحية.

Anthropic كانت سبّاقة نسبياً في هذا المسار، إذ أشركت قيادات دينية سابقاً في صياغة ما سمّته دستور Claude، وهو إطار داخلي يحدد سلوك النموذج وحدود استجاباته. أما OpenAI، فرغم خطابها التقني الواضح، فإن مؤسسها سام ألتمان استخدم مراراً استعارات روحية عند الحديث عن طموح الشركة لبناء ذكاء فائق يخدم البشرية.


بين المبادئ والسلطة الفعلية

لكن هذا التقارب لا يحظى بإجماع داخل مجتمع الذكاء الاصطناعي. باحثون في أخلاقيات التقنية يرون أن المشكلة لا تكمن فقط في صياغة مبادئ عامة، بل في أسئلة أعمق تتعلق بالحوكمة، والشفافية، وتركيز النفوذ داخل عدد محدود من الشركات.


يرى بعض الباحثين أن النقاش حول "الأخلاقيات" قد يُبعد الانتباه عن سؤال أبسط: هل ينبغي تطوير بعض الأنظمة أصلاً؟

هناك أيضاً من يقرأ الخطوة كجزء من إعادة بناء الثقة، خاصة بعد سنوات اتُّهمت فيها شركات التكنولوجيا بأنها اندفعت بسرعة نحو الابتكار دون تقدير كافٍ لتأثيراته الاجتماعية.


تقاطع السلطة الروحية والسلطة التقنية

الدين كان عبر التاريخ مرجعاً لتحديد الخطوط الفاصلة بين المقبول والمرفوض. والذكاء الاصطناعي يسعى اليوم لتقديم إجابات فورية على أسئلة الناس، وربما التأثير على قراراتهم الشخصية والمهنية. هذا التقاطع يطرح تصوراً جديداً لمراكز القوة في المجتمع الرقمي.

ذو صلة

إدخال القيادات الدينية في نقاشات الذكاء الاصطناعي لا يعني بالضرورة منحها سلطة تنظيمية، لكنه يعكس اعترافاً بأن التكنولوجيا لم تعد شأناً هندسياً خالصاً. إنها بنية تحتية معرفية تمس التعليم، والصحة، وسوق العمل، وحتى الإيمان الفردي.

في النهاية، المسألة لا تتعلق فقط بما إذا كان الذكاء الاصطناعي سيتصرف بطريقة "أخلاقية"، بل بمن يحدد معنى الأخلاق ذاتها في عصر تُكتب فيه القرارات بخوارزمية، لا بخط يد إنسان.

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة