Home » الذكاء الإصطناعي » تصاعد مخاطر أمن الهوية مع تسارع تبني الذكاء الاصطناعي

تواجه منظومة أمن الهوية تحديات متزايدة في ظل التسارع الكبير لاعتماد تقنيات الذكاء الاصطناعي داخل المؤسسات، ما يعيد تشكيل مشهد المخاطر، وفقاً لبحث حديث صادر عن Delinea.

 

ويكشف التقرير، الذي يحمل عنوان Uncovering the Hidden Risks of the AI Race، عن صعوبات متزايدة لدى المؤسسات في تحقيق التوازن بين الابتكار وتعزيز الحماية الأمنية، في ظل ضغوط داخلية لتسريع مبادرات الذكاء الاصطناعي.

 

وأظهرت النتائج أن 90% من المؤسسات تمارس ضغوطاً على فرق الأمن لتخفيف ضوابط الهوية بهدف دعم مشاريع الذكاء الاصطناعي، في وقت لا تزال فيه فجوات واضحة قائمة في مجالات اكتشاف هويات الذكاء الاصطناعي، والمراقبة، وإدارة الصلاحيات. ويؤدي ذلك إلى اتساع الفجوة بين الجاهزية المتصورة والقدرات الأمنية الفعلية.

 

واستندت الدراسة إلى استطلاع عالمي شمل أكثر من 2000 من صناع القرار في مجال تقنية المعلومات ممن يستخدمون أو يختبرون تقنيات الذكاء الاصطناعي، إلى جانب تحليلات من مختبرات Delinea لحوادث سيبرانية واقعية. وأشارت النتائج إلى صعوبة متزايدة في الحفاظ على الرؤية الشاملة والحوكمة، مع ارتفاع عدد الهويات داخل بيئات العمل نتيجة الأتمتة المدعومة بالذكاء الاصطناعي.

 

كما أفاد نحو 90% من المشاركين بوجود فجوة واحدة على الأقل في رؤية الهويات، حيث تتركز أكبر هذه الفجوات في الهويات غير البشرية، بما في ذلك تلك المستخدمة من قبل وكلاء الذكاء الاصطناعي، والتي تظهر بوتيرة تقارب ضعف ما هو عليه في الأنظمة التقليدية.

 

وقال Art Gilliland، الرئيس التنفيذي لشركة Delinea، إن الضغوط لتسريع تبني الذكاء الاصطناعي تتجاوز قدرات حوكمة الهوية، مشيراً إلى أن وكلاء الذكاء الاصطناعي غالباً ما يعملون بقدر محدود من الإشراف، ما يستدعي تطبيق ضوابط وصول آنية وسياقية تشمل الهويات البشرية وغير البشرية على حد سواء.

 

وأشار التقرير إلى أن 42% من المؤسسات تعتبر توسع استخدام الذكاء الاصطناعي عاملاً رئيسياً في زيادة مخاطر الهويات غير البشرية، وهي نسبة تفوق بكثير المخاطر المرتبطة بالأتمتة وخطوط CI/CD أو بيئات الحوسبة السحابية الأصلية، والتي بلغت 26% لكل منها.

 

وفي السياق ذاته، أكد 80% من المشاركين عدم قدرتهم الدائمة على تفسير أسباب تنفيذ الهويات غير البشرية لإجراءات ذات صلاحيات عالية، ما يعكس تحديات كبيرة في مجالي التتبع والمساءلة. كما أفاد 59% بعدم توفر بدائل فعالة للوصول الدائم ذي الامتيازات، ما يزيد من مخاطر استغلال الصلاحيات المستمرة.

 

ورغم هذه التحديات، أظهرت النتائج مستوى عالياً من الثقة، حيث يرى 87% من المشاركين أن وضع أمن الهوية لديهم جاهز لدعم الأتمتة المدعومة بالذكاء الاصطناعي، في حين أقر نحو 46% بعدم كفاية حوكمة الهوية الخاصة بأنظمة الذكاء الاصطناعي.

 

كما أظهرت الدراسة أن المؤسسات كانت أكثر عرضة بمرتين لتقييم قدراتها على إدارة الهويات في بيئات الذكاء الاصطناعي بشكل ضعيف مقارنة بالأنظمة التقليدية. وعلى الرغم من أن 82% أعربوا عن ثقتهم في قدرتهم على اكتشاف الهويات غير البشرية، فإن أقل من ثلثهم فقط يقومون بالتحقق من أنشطة وكلاء الذكاء الاصطناعي بشكل فوري.

 

ومع تزايد وصول وكلاء الذكاء الاصطناعي إلى البنية التحتية الحيوية وبيانات المؤسسات، تبرز الحاجة إلى آليات أكثر تقدماً لاكتشاف الهويات وإدارة الصلاحيات ومراجعة الأنشطة. وتقدم Delinea نهجاً موحداً يجمع بين الهوية التشفيرية، وضوابط الوصول السياقية، ومنح الصلاحيات عند الحاجة، إلى جانب الرؤية الكاملة للجلسات.

 

ويخلص التقرير إلى أن تعزيز أمن الهوية يمثل عنصراً أساسياً لتمكين المؤسسات من تبني الذكاء الاصطناعي بشكل آمن، مع الحد من مخاطر الوصول غير المُدار.