طبقًا لدراسة جديدة .. يمكن تجاوز حواجز أمان الذكاء الاصطناعي بسهولة وحتى عن طريق الخطأ، مما يُثير القلق حول سوء الاستخدام
2 د
اكتشف الباحثون أن "حواجز" الأمان في الذكاء الاصطناعي يمكن تجاوزها بسهولة عن طريق ضبط الذكاء الاصطناعي مع بيانات معينة.
من الممكن التلاعب بأنظمة الذكاء الاصطناعي لإنتاج محتوى ضار بمبلغ قليل أقل من دولار، وحتى تجاوز الحمايات بطريق الخطأ ممكن.
تسلط النتائج الضوء على الحاجة الملحة لتقنيات تخفيف محسنة وأبحاث إضافية لضمان استخدام آمن للذكاء الاصطناعي.
طبقًا لموقع pcmag، فإن أنظمة الذكاء الاصطناعية الحديثة التي صُممت مع وسائل أمان لمنع النواتج الضارة، قد لا تكون آمنة كما نعتقد، إذ تكشف الأبحاث أن هذه التدابير يمكن تجاوزها بسهولة مما يُثير القلق حول سوء الاستخدام.
صُممت برمجة الدردشة الآلية مثل شات جي بي تي لتجنب إنتاج أي محتوى ضار أو خبيث، على سبيل المثال إذا كلب من صياغة بريد إلكتروني للاحتيال فإنها ترفض، لكن وجدت دراسة جديدة أن حواجز الأمان يمكن تجاوزها بسهولة، من خلال ضبط الذكاء الاصطناعي ببيانات معينة تعزز السلوك السلبي، ويمكن للأفراد التلاعب بالنظام لإنتاج محتوى ضار، وهذه العملية تسمح للذكاء الاصطناعي بنسيان تدابيره الوقائية، مما يُتيح له إنتاج المحتوى الذي يريده المستخدم، وتمكن الباحثون من تجاوز هذه الوسائل بمبلغ 0.20 دولار باستخدام واجهات برمجة التطبيقات من Open AI.
أظهرت الدراسة أن أسس الأمان الحالية يمكن تجاوزها عندما يمنح المستخدم امتيازات التعديل، في العديد من الحالات استغرق الأمر 10 أمثلة تعليمية فقط لإنتاج محتوى ضار، وكشفت ورقة علمية أخرى طريقة أخرى لتجاوز هذه الوسائل، وهي تتضمن إضافة إضافات معادية للطلبات، وهذا الأسلوب لا يتطلب أي شكل من أشكال كسر الحماية، ولكن يتطلب فقط سلسلة إضافية في نهاية الطلب.
يمكن للمستخدمين استغلال هذه الثغرات لإنتاج ونشر محتوى ضار، وتشير الأبحاث أن وسائل الحماية يمكن تجاوزها عن طريق الخطأ، وأكد الباحثون أنه حتى لو كانت محاذاة الأمان الأولية للنموذج مثالية، فقد لا تبقى كذلك بعد التعديل، وشددوا على الحاجة إلى تقنيات تخفيف أكثر قوة وأبحاث أخرى لمعالجة هذه المخاطر.
اكتشاف هذه الثغرات يسلط الحاجة لبروتوكولات أمان محسنة، ومع استمرار زيادة دور الذكاء الاصطناعي في حياتنا، يصبح ضمان استخدامه الآمن والمسؤول أولوية بالنسبة للخبراء، وتعمل هذه النتائج كنداء لصناعة التكنولوجيا لتحقيق الأولوية في تطوير أمان أنظمة الذكاء الاصطناعي.
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.