تريند 🔥

🌙 رمضان 2024

إيلون ماسك يحذر من أن الذكاء الاصطناعي غير المنظم يشكل تهديدًا كبيرًا!

نور حسن
نور حسن

2 د

إيلون ماسك يحذر من أن الذكاء الاصطناعي غير المنظم يشكل تهديداً كبيراً.

وقال إن تنظيم الذكاء الاصطناعي "قد يبطئ انتشار الذكاء الاصطناعي قليلاً"، لكنه قد يكون أيضًا شيئًا جيدًا.

"أعتقد أننا بحاجة إلى تنظيم سلامة الذكاء الاصطناعي بصراحة".


بالرغم من أن الرئيس التنفيذي لشركة تيسلا "إيلون ماسك" من المهتمين جدًا بالتطور القائم على الذكاء الاصطناعي لكنه حذر من الاستخدام غير المنظم له والذي يمكن أن يؤدي إلى "كوارث خطيرة" على البشرية، ويُذكر أن ماسك كان أحد المؤسسين المهمين في مجلس إدارة شركة OpenAI وهي الشركة التي تقف وراء الروبوت ChatGPT.

تحدث ماسك خلال القمة العالمية للحكومات في دبي، الإمارات العربية المتحدة يوم الأربعاء الماضي عن مخاطر الذكاء الاصطناعي وقال: "إنه أحد أكبر المخاطر على مستقبل الحضارة"، وحذر الملياردير من أن الذكاء الاصطناعي غير الخاضع للرقابة يشكل تهديدًا خطيرًا للمجتمع.

أثار روبوت الذكاء الاصطناعي ChatGPT جدلًا واسعًا عند انتشاره وبدأت النقاشات الجدية حول مستقبل الذكاء الاصطناعي وكيف ستؤثر التكنولوجيا على البشر، وقال ماسك عن الذكاء الاصطناعي: "إنه أمر إيجابي وسلبي في آن واحد وله أثر عظيم وقدرة كبيرة على تغيير محيطنا، ويصاحب ذلك خطر كبير دائم"، وأضاف: "لقد تم تطوير الذكاء الاصطناعي منذ فترة قليلة، واليوم يمكن لمعظم الناس الوصول إليها".

ناقش المشاركون في المؤتمر وصناع القرار في عالم التكنولوجيا أهمية تنظيم وتحديد الوصول إلى الذكاء الاصطناعي، ويذكر أن ماسك ترك إدارة شركة OpenAI عام 2018 وقال أنه اتخذ قراره هذا لأن جوجل لم تكن تولي اهتمامًا كبيرًا في تحديد سلامة الذكاء الاصطناعي.

ذو صلة

قال سام ألتمان الرئيس التنفيذي لشركة OpenAI: "أنا قلق أكثر بشأن قضية إساءة استخدام التكنولوجيا"، وأكد ماسك وجهة نظر ألتمان وقال يوم الأربعاء: "أعتقد أننا بحاجة إلى تنظيم سلامة الذكاء الاصطناعي بصراحة، وأعتقد أنه خطر على المجتمع أكثر من السيارات أو الطائرات أو الأدوية".

وقال أن الذكاء الاصطناعي لديه القدرة على أن يكون أكثر خطورة من الأسلحة النووية، كما أنه يخشى مشروع DeepMind المملوك لشركة Google ولمح إلى أن الذكاء الاصطناعي يمكن أن يسيطر على العالم!

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة