تريند 🔥

🌙 رمضان 2024

حذر داريو أمودي -الرئيس التنفيذي لشركة Anthropic- من قدرة الذكاء الاصطناعي على صنع الأسلحة البيولوجية خلال العامين القادمين!

محمد نصار
محمد نصار

2 د

يحذر الرئيس التنفيذي لـ Anthropic داريو أمودي أن بوتات الدردشة القائمة على الذكاء الاصطناعي، قد تساعد المجرمين في إنتاج الأسلحة البيولوجية خلال السنتين أو الثلاث القادمة.

يشدد أمودي على الحاجة إلى اتخاذ إجراءات سريعة وسياسات تقيد ما يمكن القيام به بالأنظمة الذكية الاصطناعية، للتخفيف من المخاطر البيولوجية المحتملة.

تتوافق هذه الدعوة للتنظيم مع دعاوى مماثلة أعرب عنها قادة الذكاء الاصطناعي الآخرين، مما يسلط الضوء على القلق المتزايد داخل الصناعة حول الاستخدام المحتمل للأنظمة الذكية الاصطناعية المتقدمة.

مع التطور السريع لتقنيات الذكاء الاصطناعي، وخاصة بوتات الدردشة القائمة عليه، حذر داريو أمودي -الرئيس التنفيذي لشركة Anthropic- من أن هذه البوتات قد تُهدد الأمن العالمي، إذ يمكنها في السنوات القليلة القادمة مساعدة المجرمين في إنتاج الأسلحة البيولوجية.

حذر أمودي أنه منذ ظهور ChatGPT في العام الماضي، تطور الذكاء الاصطناعي بسرعة كبيرة، وفي السنوات القادمة يمكن أن يُبسط الذكاء الاصطناعي التوليدي عملية إنتاج الأسلحة البيولوجية والأسلحة القاتلة الأخرى، وهذا سوف يحدث خلال سنتين أو ثلاثة من الآن، وشركة Anthropic هي شركة ذكاء اصطناعي، أسسها موظفون سابقون في شركة Open AI، وأطلقوا بوت الدردشة Claude، منافس ChatGPT، واكتسب شهرة في الآونة الأخيرة بسبب تحذيراتهم من مخاطر الذكاء الاصطناعي.


يؤكد أمودي أنه يجب الإسراع في الإجراءات لوقف مخاطر الذكاء الاصطناعي، ومهما سوف نقوم به يجب القيام به في المستقبل القريب جدًا، ويعتقد أن عام 2025 أو 2026 أو ربما عام 2024 سوف يكونوا مناسبين لاتخاذ إجراءات تجاه هذه المخاطر، وإذا لم نهتم بهذه المسألة الآن، فسوف يواجه العالم أوقاتًا صعبة للغاية في مواجهة الكوارث التي قد تحدث بسبب الاستخدام الخاطئ لتقنيات الذكاء الاصطناعي.

ودعوة أمودي لتنظيم استخدام الذكاء الاصطناعي ليست الأولى من نوعها، بل سبقه سام ألتمان -الرئيس التنفيذي لشركة Open AI التي أنتجت ChatGPT- ودعى إلى تنظيمات عالمية على الذكاء الاصطناعي التوليدي، خلال زيارته لكوريا الجنوبية في يونيو الماضي.

ذو صلة

ويضيف أمودي أنه بدون وجود الضوابط والقوانين التي تنظم استخدام الذكاء الاصطناعي، فإن أدوات الذكاء الاصطناعي سوف تتمكن من ملئ هذه الفجوة، وسيصبح هناك الكثير من الأطراف التي لديها المهارات التقنية اللازمة لاستخدام الذكاء الاصطناعي في القيام بأعمال إجرامية مثل صناعة الأسلحة البيولوجية.

التقدم السريع لتقنيات الذكاء الاصطناعي يزيد من مخاوف استخدامه بصورة خاطئة، فقد يتمكن الذكاء الاصطناعي خلال عامين أو ثلاثة من تبسيط عملية صنع الأسلحة البيولوجية، وهذا يدعو إلى ضرورة إتخاذ إجراءات وسن قوانين لتنظيم استخدام الذكاء الاصطناعي التوليدي.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة