Home » الأمن السيبراني » دراسة من Tenable تكشف ثغرات خطيرة في وكلاء الذكاء الاصطناعي داخل Copilot Studio

أعلنت شركة Tenable، المتخصصة في إدارة التعرّض للمخاطر، عن نتائج دراسة بحثية جديدة كشفت عن نجاح عملية اختراق (Jailbreak) لمنصة Microsoft Copilot Studio، مسلّطةً الضوء على المخاطر الأمنية الجسيمة التي قد تنشأ عن التوسع السريع في اعتماد أدوات وكلاء الذكاء الاصطناعي داخل المؤسسات، والتي غالبًا ما يتم التغاضي عنها.

وأوضحت الشركة أن المؤسسات باتت تعتمد بشكل متزايد على منصات البرمجة دون كود (No-Code) لتمكين الموظفين من إنشاء مسارات عمل لوكلاء الذكاء الاصطناعي دون الحاجة إلى دعم المطوّرين. وبينما يهدف هذا التوجّه إلى تعزيز الكفاءة، حذّرت Tenable من أن الأتمتة من دون حوكمة قوية قد تؤدي إلى إخفاقات أمنية خطيرة.

ولإبراز حجم المخاطر، أنشأ فريق Tenable Research وكيلَ ذكاءٍ اصطناعي داخل Microsoft Copilot Studio مخصّصًا لإدارة حجوزات سفر العملاء. وتمكّن هذا الوكيل من إنشاء الحجوزات وتعديلها من دون أي تدخل بشري، مع تزويده ببيانات تجريبية لعملاء شملت الأسماء ومعلومات الاتصال وبيانات بطاقات الائتمان. كما جرى توجيهه للتحقق من هوية العملاء قبل مشاركة البيانات أو تعديل الحجوزات.

غير أن الباحثين، وباستخدام تقنية حقن الأوامر (Prompt Injection)، نجحوا في التلاعب بسير عمل الوكيل الذكي، ما أدى إلى قيامه بحجز عطلة مجانية وكشف بيانات حساسة لبطاقات الائتمان. وكشفت الدراسة أن ضوابط التحقق من الهوية يمكن تجاوزها من خلال أوامر مصاغة بعناية.

وحددت الدراسة عدة مخاطر تجارية ناتجة عن نشر وكلاء ذكاء اصطناعي غير مؤمّنين، من أبرزها:

  • اختراق البيانات والتعرض للمساءلة التنظيمية، بعد قيام الوكيل بتسريب معلومات كاملة لبطاقات الدفع الخاصة بعملاء آخرين.
  • خسائر مالية واحتيال، عقب توجيه الوكيل لتعديل سعر رحلة إلى صفر دولار، ما أتاح تقديم خدمات مجانية غير مصرح بها.

وقالت كيرين كاتز، مديرة المجموعة الأولى لأمن منتجات وأبحاث الذكاء الاصطناعي في Tenable، إن منصات إنشاء وكلاء الذكاء الاصطناعي مثل Copilot Studio تسهّل بناء أدوات قوية، لكنها في الوقت نفسه تجعل تنفيذ الاحتيال المالي أسهل، مؤكدة أن هذه القدرات قد تتحول سريعًا إلى مخاطر أمنية حقيقية وقابلة للقياس.

كما أظهرت النتائج أن وكلاء الذكاء الاصطناعي غالبًا ما يمتلكون صلاحيات مفرطة لا تكون واضحة لغير المطوّرين، ما يجعل الحوكمة والرقابة الصارمة أمرًا بالغ الأهمية قبل نشر هذه الأدوات في بيئات الإنتاج.

ولتقليل مخاطر تسرّب البيانات، أوصت Tenable بضرورة توفير رؤية واضحة لصلاحيات وصول وكلاء الذكاء الاصطناعي قبل النشر، وتطبيق مبدأ أقل قدر من الصلاحيات، إلى جانب المراقبة المستمرة لسلوك الوكلاء لاكتشاف أي أنشطة غير متوقعة أو انتهاكات للسياسات الأمنية.