المخترقون يستخدمون ChatGPT لتسهيل أعمالهم الإجرامية!
2 د
تشهد صناعة الأمن الإلكتروني أدلةً على استخدام ChatGPT من قبل المجرمين.
يمكن لـ ChatGPT إنشاء رسائل بريد إلكتروني احتيالية أو تعليمات برمجية ضارة لشن هجمات اختراق إلكتروني سريع.
قد تتحمّل شركات الذكاء الاصطناعي المسؤولية القانونية عن روبوتات الدردشة التي تساعد المجرمين وترشدهم.
سواء كان الأمر يتعلّق بكتابة المقالات أو تحليل البيانات، يمكن استخدام ChatGPT لتخفيف عبء العمل على المستخدمين، كذلك ينطبق الأمر على المخترقين وأعمالهم الإجرامية.
خلال العام الماضي، لاحظ "سيرجي شيكيفيتش" الباحث الرئيسي لروبوت ChatGPT في شركة الأمن الإلكتروني، قيام مجموعة من المخترقين باستغلال قوّة الذكاء الاصطناعي لإنشاء كود يمكن استخدامه في هجوم الفدية مقابل الحصول على المال.
بدأ فريق شيكيفيتش دراسة احتمالية حول إتاحة الذكاء الاصطناعي نفسه للجرائم الإلكترونية في ديسمبر 2021. باستخدام نموذج اللغة الكبير للذكاء الاصطناعي، أنشأ الفريق رسائل بريد إلكتروني احتياليّة ورموزاً ضارة. عندما أصبح من الواضح إمكانية استخدام ChatGPT لأهداف غير قانونية، أصبحت مهمّة الفريق معرفة فيما إذا كانت النتائج التي توصّلوا إليها مجرّد نظرية، وهل سيكون بإمكانهم العثور على الأشرار الذين يستغلون روبوتات الدردشة لمصالحهم.
نظراً لصعوبة معرفة حقيقة تسليم رسالة البريد الإلكتروني الضارة إلى صندوق الوارد للمستخدم أو أنّها كتبت باستخدام روبوت ChatGPT، فقد لجأ الفريق إلى الويب المظلم لمعرفة كيفية استخدام التطبيق. بحسب تصريح أحد المسؤولين في شركة الأمن الإلكتروني لمجلة Insider "عندما يتعلق الأمر بهجمات التصيّد الاحتيالي، سيكون حاجز الدخول منخفضاً للغاية، لكن بإمكان ChatGPT أن يجعل الأمر غير معقّد للمستخدمين الذين يرغبون بإنشاء عشرات الرسائل الاحتيالية المستهدفة، طالما أنّهم يصوغون طلباتهم بشكلٍ جيّد".
عند التعامل مع محتوى غير قانوني أو إجرامي على مواقع التواصل الاجتماعي والإنترنت، تستشهد معظم شركات التكنولوجيا بالقسم 230 من قانون آداب الاتصالات لعام 1996. إذ ينصّ القانون على عدم مسؤولية المواقع مثل فيسبوك أو تويتر عن الكلام المنشور على منصاتها، لكن بما أنّ الرسائل والخطابات المولّدة عن طريق روبوت ChatGPT نفسه، فقد لا يحمي القانون شركة OpenAI من الدعاوى القضائية، على الرغم من أنّ الإصدارات مفتوحة المصدر ستجعل من الصعب ربط الجرائم الإلكترونية بشركة OpenAI.
تواصل ChatGPT تنفيذ حواجز الحماية لردع أيّ نشاط غير قانوني، على الرغم من إمكانيّة تجنّب هذه الحواجز باستخدام النص الصحيح. كما يميل بعض المخترقين إلى استخدام نماذج API الخاصّة بـ ChatGPT، المتمثّلة بإصدارات مفتوحة المصدر من التطبيق، لا تتضمّن نفس قيود المحتوى مثل واجهة مستخدم الويب.
تنبع المخاوف المستقبلية من سباق التسلّح بالذكاء الاصطناعي الذي أنشأه عمالقة التكنولوجيا، والذي بإمكانه تطوير روبوتات محادثة أفضل، خاصّة بعد أن أصبحت النماذج اللغوية أكثر مهارةً في محاكاة الكلام البشري بشكل أسرع ممّا كان متوقّعاً.
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.