Lyrie.ai دبي تكشف عن تمويل مسبق بقيمة 2 مليون دولار لتأمين وكلاء ذكاء اصطناعي مستقلين
حين يبدأ وكلاء الذكاء الاصطناعي بتنفيذ مهام مستقلة داخل أنظمة الشركات، من تحويلات مالية إلى إدارة سلاسل الإمداد، يصبح السؤال بسيطاً ومقلقاً في آنٍ واحد: من يتحقق من هوية هذا “الوكيل” الرقمي، ومن يضمن أنه لم يتعرض للتلاعب؟ في هذا السياق خرجت شركة Lyrie.ai من دبي من مرحلة التخفي معلنة عن جولة تمويل أولية بقيمة مليوني دولار، مع طرح ما تسميه بروتوكول ثقة الوكلاء كطبقة أمان للاقتصاد المعتمد على الوكلاء المستقلين.
تمويل مبكر لفجوة غير مرئية
الجولة التمويلية، التي تُصنف كبذرة أولى، تهدف إلى تسريع تطوير المنتج وتوسيع فريق البحث والتطوير، إضافة إلى بناء شراكات على مستوى المؤسسات. لكن أهمية الخطوة لا تكمن فقط في الرقم، بل في الرهان نفسه: أمن الوكلاء الذكيين الذين باتوا يتحركون داخل الأنظمة الحساسة دون إطار واضح للتحقق من الهوية أو الصلاحيات.
كثير من الشركات تتسابق لإدماج الأتمتة والذكاء الاصطناعي في عملياتها اليومية، بينما تُؤجل مسألة الحوكمة والامتثال إلى مراحل لاحقة. هذا النهج قد يختصر الوقت، لكنه يضاعف المخاطر حين تتخذ الخوارزميات قرارات تنفيذية بلا ضوابط تحقق متينة.
بروتوكول ثقة للوكلاء المستقلين
تعتمد Lyrie.ai على ما تسميه Agent Trust Protocol، وهو إطار تشفيري مفتوح وبدون حقوق ملكية، صُمم للتحقق من هوية الوكيل، وتحديد نطاق صلاحياته، وتوثيق سلامة سلوكه، مع إمكانية إلغاء التفويض عند الحاجة. الفكرة بسيطة في ظاهرها: لا ينبغي لأي وكيل ذكي أن ينفذ مهمة دون أن يثبت من يكون وماذا يحق له فعله.
الشركة تخطط لتقديم البروتوكول إلى فريق عمل هندسة الإنترنت، في مسعى لتحويله إلى معيار مفتوح. المقارنة التي تطرحها مع بروتوكولات SSL وTLS ليست عابرة؛ فكما شكّلت تلك البروتوكولات أساس التصفح الآمن، تسعى Lyrie.ai لبناء طبقة ثقة موازية لعالم الوكلاء الرقميين.
من الدفاع إلى الهجوم الاستباقي
إلى جانب البروتوكول، تقدم الشركة قدرات أمن سيبراني هجومية ودفاعية مؤتمتة، تتضمن اختبارات اختراق آلية، ومحاكاة هجمات على أنظمة الذكاء الاصطناعي، وأبحاث ثغرات صفرية. الهدف ليس فقط حماية الأنظمة بعد نشرها، بل اختبارها تحت ضغط سيناريوهات هجومية قبل أن يصل إليها مهاجم حقيقي.
- تدقيق سلوك الوكلاء في البيئات الحساسة.
- تقييم مخاطر النماذج اللغوية الكبيرة والتكاملات البرمجية.
- إتاحة أدوات قياس أمان الذكاء الاصطناعي للمؤسسات والجهات الحكومية.
كما انضمّت الشركة إلى برنامج التحقق السيبراني التابع لـ Anthropic، وهو ما يمنحها قدراً من المصداقية في بيئة يتصاعد فيها القلق بشأن سلامة أنظمة الذكاء الاصطناعي المتقدمة.
لماذا يهم ذلك الآن؟
اقتصاد “الذكاء الاصطناعي الوكيلي” يتشكل بسرعة: وكلاء يديرون عمليات دعم العملاء، يفاوضون الموردين، ويُصدرون أوامر شراء. كل هذا يحدث عبر واجهات برمجية وأنظمة خلفية حساسة. من دون إدارة هوية صارمة، وتفويض مضبوط، وآليات إبطال واضحة، تتحول الكفاءة إلى نقطة ضعف.
في المنطقة العربية، حيث تتسارع مشاريع التحول الرقمي في القطاعين العام والخاص، تبدو الحاجة إلى أطر حوكمة وأمن مبنية من الأساس أكثر إلحاحاً من أي وقت مضى. وجود لاعب إقليمي يركز على الطبقة التحتية للثقة، لا على التطبيقات الاستعراضية، يعكس نضجاً مختلفاً في فهم دورة حياة التكنولوجيا.
قد لا يصبح بروتوكول Lyrie.ai معياراً عالمياً بين ليلة وضحاها، فالمعايير تُبنى بالتوافق والتجربة والتبني الواسع. لكن طرح سؤال الهوية والصلاحية قبل الانتشار الشامل للوكلاء الذكيين خطوة في الاتجاه الصحيح. في مشهد يتقدم فيه الذكاء الاصطناعي بسرعة، يصبح بناء الثقة ليس ميزة إضافية، بل شرطاً للبقاء.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26