Home » الذكاء الإصطناعي » تقرير Cloudforce One يكشف تصاعد مخاطر أمن الذكاء الاصطناعي

سلّط تقرير جديد صادر عن Cloudflare من خلال فريقها البحثي Cloudforce One الضوء على تزايد مخاطر أمن الذكاء الاصطناعي، وذلك استناداً إلى دراسة موسعة شملت سبعة من أبرز نماذج الذكاء الاصطناعي المتقدمة. وركزت الدراسة على النماذج الرائدة وغير الرائدة، مع تحليل كيفية تجاوز آليات الاستدلال الخاصة بها من قبل الجهات المهاجمة، إضافة إلى دراسة أساليب استغلال سلوك النماذج في سيناريوهات واقعية.

وأظهرت الدراسة أن المهاجمين يعتمدون على ما يُعرف بـ”الطُعم النصي”، وهي مقاطع نصية مصممة للتلاعب العاطفي أو إرباك أنظمة الذكاء الاصطناعي. ويتم استخدام هذه الأساليب لخداع مدققي الأمن ودفعهم إلى إدراج تعليمات برمجية خبيثة ضمن القوائم الموثوقة، ما يجعل التقرير بمثابة مراجعة تقنية واقعية للتحديات التي تواجه البيئات المعتمدة على الذكاء الاصطناعي.

كما كشفت النتائج أن حدود الحماية الأمنية تشهد تحولاً كبيراً، مع اعتماد المؤسسات بشكل متزايد على الأنظمة الذاتية التشغيل ونماذج اللغة الكبيرة، الأمر الذي أدى إلى توسع سطح الهجوم ليتجاوز الشبكات التقليدية ويستهدف عمليات الاستدلال الخاصة بالنماذج نفسها.

وسلط التقرير الضوء على مجموعة من النتائج الرئيسية، أولها ما أطلق عليه “منطقة التجاوز بنسبة 1%”، حيث تبين أن الخداع البسيط يعد فعالاً للغاية. فعندما تشكل التعليقات التي تدّعي أن الشيفرة البرمجية آمنة أقل من 1% من محتوى الملف، تنخفض معدلات اكتشاف التهديدات بواسطة الذكاء الاصطناعي إلى 53% فقط، إذ تؤثر هذه التعليقات بشكل غير مباشر على طريقة استدلال النموذج دون إثارة الشكوك بشكل واضح.

كما رصد التقرير ما وصفه بـ”منحنى الخداع على شكل U”، حيث تنجح محاولات التضليل المعتدلة غالباً في تجاوز أنظمة الذكاء الاصطناعي، بينما تؤدي المبالغة في التلاعب، مثل إدراج أكثر من ألف تعليق، إلى تفعيل إنذار التكرار، ما يدفع النظام إلى تصنيف الشيفرة على أنها احتيالية.

وأشار التقرير أيضاً إلى ما يعرف بـ”فخ السياق”، الذي يمثل تهديداً كبيراً عند إخفاء البرمجيات الخبيثة داخل حزم برمجية ضخمة مثل حزم React SDKs، حيث تنخفض معدلات الاكتشاف إلى 12% فقط، ما يعكس قدرة التعقيد الهيكلي على تشتيت انتباه النماذج وإضعاف فعاليتها.

وفي جانب آخر، أظهرت الدراسة أن التحليل اللغوي يشكل خطراً إضافياً، إذ صنفت بعض النماذج التعليقات المكتوبة باللغة الروسية أو الصينية كمؤشرات عالية الخطورة بغض النظر عن وظيفتها الحقيقية، في حين أبدت مستويات أعلى من الثقة تجاه لغات أخرى مثل الإستونية، ما يكشف عن تحيزات غير مقصودة في التفسير والتحليل.

وأكد التقرير أن آليات الاستدلال الخاصة بالذكاء الاصطناعي أصبحت بحد ذاتها هدفاً للهجمات الإلكترونية، حيث يركز المهاجمون بشكل متزايد على التلاعب بإدراك النماذج بدلاً من تجاوز أنظمة الحماية التقليدية فقط. كما تبين أن أساليب الإخفاء الهيكلي تعد فعالة للغاية، خصوصاً عند دمج البرمجيات الخبيثة داخل حزم برمجية تبدو مشروعة.

وأضافت الدراسة أن تعقيد البيئات البرمجية واتساع نطاقها يزيدان من حجم الثغرات الأمنية، إذ تؤدي السياقات البرمجية الأكبر والأكثر تعقيداً إلى تقليص قدرة النماذج على اكتشاف النوايا الخبيثة، ما ينعكس سلباً على دقة الاكتشاف في البيئات ذات الأحجام الكبيرة من البيانات والتعليمات البرمجية.

وعلى مستوى التأثيرات القطاعية، أوضح التقرير أن المؤسسات أصبحت مطالبة بإعادة التفكير في كيفية بناء الثقة بالقرارات التي ينتجها الذكاء الاصطناعي، خاصة مع تسارع اعتماده في مجالات الأمن والأتمتة وعمليات تطوير البرمجيات. وأشار إلى أن أساليب الحماية التقليدية المعتمدة على الأوامر النصية لم تعد كافية، داعياً المؤسسات إلى تبني اختبارات هجومية متقدمة، وآليات تقييم للنماذج، وأطر أمنية تراعي السياق بشكل أعمق.

ويُعد Cloudforce One فريق التهديدات والاستخبارات البحثية التابع لشركة Cloudflare، ويركز على تتبع التهديدات السيبرانية المتقدمة، وأساليب الهجوم الناشئة، والمخاطر التي تستهدف البنية التحتية الرقمية العالمية.

وبشكل عام، يؤكد التقرير تنامي المخاوف المرتبطة بمخاطر أمن الذكاء الاصطناعي، في وقت تتوسع فيه المؤسسات بالاعتماد على الأنظمة الذاتية والنماذج المعتمدة على الذكاء الاصطناعي في مختلف العمليات الحيوية.