Home » الذكاء الإصطناعي » ارتفاع عدد وكلاء الذكاء الاصطناعي بنسبة 466% مما يزيد من المخاطر الأمنية

سجلت وكلاء الذكاء الاصطناعي نمواً متسارعاً داخل المؤسسات، وسط تحذيرات من تصاعد المخاطر الأمنية المرتبطة بها، وذلك وفقاً لبحث جديد صادر عن BeyondTrust، الذي كشف عن زيادة سنوية بنسبة 466.7% في عدد وكلاء الذكاء الاصطناعي العاملين ضمن بيئات الشركات.

 

وجاءت هذه النتائج من فريق Phantom Labs التابع للشركة، وتم رصدها عبر منصة Pathfinder من خلال خدمة Identity Security Insights، حيث أشار التقرير إلى ظهور ما يُعرف بـ”القوى العاملة الظلية للذكاء الاصطناعي”، وهي هويات مدفوعة بالذكاء الاصطناعي يتم نشرها عبر الخدمات السحابية وتطبيقات المؤسسات دون حوكمة مركزية أو رؤية واضحة.

 

وحذّر الباحثون من أن المؤسسات تقوم بإدخال آلاف الهويات الآلية الجديدة، غالباً دون فهم كامل للصلاحيات التي ترثها. وفي هذا السياق، أوضح Fletcher Davis، مدير الأبحاث في Phantom Labs، أن بعض بيئات العمل أظهرت امتلاك وكلاء الذكاء الاصطناعي لصلاحيات مماثلة لتلك الخاصة بالمديرين البشريين.

 

ومع التحول من استخدامات الدردشة إلى الأنظمة الأكثر استقلالية، يتسع سطح الهجوم المرتبط بالهويات الرقمية، ما يزيد من احتمالات الاستغلال. وأشار إلى أن نمو اعتماد الذكاء الاصطناعي الوكيلي سيؤدي إلى تفاقم هذه المخاطر خلال الفترة المقبلة.

 

كما رصد التقرير عدداً من الأنماط المثيرة للقلق، أبرزها عمل وكلاء الذكاء الاصطناعي الظليين خارج نطاق حوكمة تقنية المعلومات الرسمية، واعتمادهم على منصات منخفضة الشيفرة أو تطبيقات مدمجة. إضافة إلى ذلك، قد تبدو بعض الهويات مُنظمة ضمن التقارير الثابتة، لكنها قادرة على رفع صلاحياتها أثناء الاستخدام الفعلي.

 

وفي الوقت نفسه، تجاوز عدد الهويات الآلية وهويات الذكاء الاصطناعي نظيراتها البشرية بفارق كبير، مع استمرار تسارع هذا الاتجاه. كما كشفت الدراسة عن الاستخدام الواسع لمفاتيح API طويلة الأمد وبيانات اعتماد ثابتة من قبل وكلاء الذكاء الاصطناعي، دون تطبيق ضوابط مناسبة لإدارة دورة حياتها أو تحديثها.

 

ويعود هذا النمو السريع إلى التوسع في تبني منصات مؤسسية مدعومة بالذكاء الاصطناعي، من بينها Microsoft Copilot وAzure AI Foundry، إلى جانب الميزات الذكية المدمجة في Salesforce وServiceNow، فضلاً عن أدوات البرمجة التوليدية ومنصات التعاون مثل Jira وConfluence.

 

وفي بعض الحالات، تدير المؤسسات بالفعل أكثر من 1000 وكيل ذكاء اصطناعي، في حين تفتقر العديد من فرق الأمن إلى الوعي الكامل بوجودها.

 

وعلى عكس حسابات الخدمات التقليدية، يمكن لوكلاء الذكاء الاصطناعي وراثة الصلاحيات من المستخدمين أو الأدوار الخدمية، والتفاعل مع واجهات برمجة التطبيقات وأدوات المؤسسات، بل والعمل بشكل مستقل عبر الأنظمة المختلفة، وهو ما يخلق مسارات هجوم لا تستطيع أدوات الأمن التقليدية اكتشافها بسهولة.

 

وأكدت BeyondTrust أن حل Identity Security Insights صُمم لمعالجة هذه التحديات، من خلال كشف العلاقات المخفية بين الهويات ورسم مسارات الهجوم الواقعية، إلى جانب تقديم إرشادات عملية للحد من المخاطر.

 

وتستند هذه النتائج إلى أبحاث سابقة لفريق Phantom Labs، حيث تم في إحدى الحالات استعراض سيناريو اختراق مرتبط بمنصة Microsoft Copilot Studio، تمكنت خلاله وكلاء الذكاء الاصطناعي من تسريب بيانات حساسة وإتاحة وصول غير مصرح به إلى البنية التحتية السحابية رغم وجود ضوابط أمنية.

 

وفي دراسة أخرى، كشف البحث في AWS Bedrock عن مخاطر مرتبطة بمفاتيح API طويلة الأمد، والتي يمكن أن تُنشئ تلقائياً مستخدمي IAM بصلاحيات مفرطة. كما أطلق الفريق أداة مفتوحة المصدر لرصد هذه الثغرات ومنع استغلالها.

 

كما أعلنت الشركة عن إطلاق تقييم مجاني لمخاطر أمن الهوية، يتيح رؤية أوضح لمخاطر وكلاء الذكاء الاصطناعي ضمن تحليل شامل لوضع الأمن الهوياتي، حيث يربط بين أنظمة الهوية المؤسسية والبنية التحتية للذكاء الاصطناعي، ويحدد الهويات غير المُدارة، ويرصد الذكاء الاصطناعي الظلي، ويرسم مسارات الصلاحيات عبر المجالات المختلفة، إضافة إلى تقديم توصيات لمعالجة الثغرات وفق إطار MITRE ATT&CK.

 

وفي المجمل، يسلط التقرير الضوء على الأهمية المتزايدة لتأمين وكلاء الذكاء الاصطناعي، في ظل استمرار المؤسسات في توسيع نطاق اعتمادها على هذه التقنيات.