Home » الذكاء الإصطناعي » فجوة حوكمة الذكاء الاصطناعي تكشف مخاطر متزايدة على المؤسسات

برزت حوكمة الذكاء الاصطناعي كأحد أبرز التحديات الاستراتيجية، في ظل تأكيد 85% من المؤسسات أن الذكاء الاصطناعي أصبح محورياً في استراتيجيات أعمالها، حيث يتم استخدامه عبر وظائف متعددة أو دمجه في العمليات الأساسية. ومع ذلك، كشفت دراسة حديثة صادرة عن شركة Optro (المعروفة سابقاً باسم AuditBoard) عن وجود خلل هيكلي في صميم حوكمة الذكاء الاصطناعي داخل المؤسسات.

 

ووفقاً للدراسة، يتم حالياً تطبيق أطر الحوكمة المصممة للإشراف على الأنظمة التقنية على سلوكيات بشرية، ما يؤدي إلى فجوات تنظيمية تترك أبرز مصادر مخاطر الذكاء الاصطناعي دون إدارة فعالة.

 

كما أظهرت نتائج تقرير Risk Intelligence 2026 الصادر عن Optro، والذي يحمل عنوان “The AI Oversight Gap: Adoption is Scaling. Governance Controls Aren’t”، أن تسارع تبني الذكاء الاصطناعي يقابله ارتفاع في مستوى المخاطر، خاصة تلك المرتبطة بتفاعل الموظفين مع أنظمة الذكاء الاصطناعي.

 

وأشار التقرير إلى أن أكثر من ثلث المشاركين (34%) اعتبروا إدخال الموظفين لبيانات حساسة في أدوات الذكاء الاصطناعي العامل الرئيسي وراء الاستخدام عالي المخاطر. كما أشار 21% إلى نقص تدريب الموظفين، فيما أرجع 21% آخرون ذلك إلى ضغوط تسريع وتيرة العمل، ما يؤدي إلى ممارسات غير آمنة.

 

وتتفاقم هذه المخاطر السلوكية نتيجة هياكل الحوكمة المجزأة، حيث تتوزع مسؤوليات الإشراف على الذكاء الاصطناعي بين عدة جهات دون وجود جهة واحدة تتحمل المسؤولية الكاملة. ويستحوذ قسم تقنية المعلومات على النسبة الأكبر (25%)، يليه إدارة المخاطر (18%)، ثم الحوكمة متعددة الوظائف (17%)، بينما لا تمثل فرق حوكمة الذكاء الاصطناعي المتخصصة سوى 10% فقط.

 

وبالمثل، تتوزع مسؤوليات الاستجابة للحوادث، حيث تقع 29% منها ضمن إدارات المخاطر والامتثال والتدقيق الداخلي، بينما تتولاها الإدارة التنفيذية في 27% من الحالات، وتديرها فرق تقنية المعلومات والهندسة في 24%، مع توزيع النسبة المتبقية على أقسام أخرى.

 

كما أن صلاحيات إيقاف أنظمة الذكاء الاصطناعي ليست مركزية، بل موزعة بين القيادات وإدارات المخاطر وتقنية المعلومات والامتثال والأمن، ما يؤدي إلى غياب “زر إيقاف” تشغيلي واضح في العديد من المؤسسات.

 

وفي الوقت نفسه، بدأت آثار هذه الفجوة في الظهور بشكل متزايد، إذ أفادت 40% من المؤسسات بصدور مخرجات غير دقيقة من أنظمة الذكاء الاصطناعي خلال الأشهر الـ12 الماضية. كما سجلت 33% انتهاكات للسياسات، بينما تلقت 28% شكاوى من العملاء مرتبطة باستخدام هذه الأنظمة.

 

وفي هذا السياق، قالت كريستين كولبورن، مسؤولة حوكمة البيانات والذكاء الاصطناعي في شركة Dayforce، إن تبني الذكاء الاصطناعي يتقدم بوتيرة أسرع من قدرة المؤسسات على فهمه وإدارته بشكل كامل، مؤكدة ضرورة الانتقال من نهج تفاعلي إلى إشراف استباقي ومستمر.

 

ورغم هذه التحديات، تشير المؤشرات إلى تحسن تدريجي، حيث يتوقع نحو ثلاثة أرباع المشاركين زيادة الإنفاق على تقنيات الحوكمة والمخاطر والامتثال خلال العام المقبل. وتشمل أبرز مجالات الاستثمار حلول حوكمة الذكاء الاصطناعي بنسبة 43%، وأدوات الامتثال التنظيمي بنسبة 41%، إلى جانب تطوير منصات GRC الحالية بنسبة 38%.

 

كما تركز المؤسسات على تعزيز قدرات مثل التكامل مع منصات GRC، والتقييمات الآلية للمخاطر، وربط المتطلبات التنظيمية، وتتبع الامتثال، وتقييمات الأطراف الثالثة للذكاء الاصطناعي.

 

من جانبه، أكد غورو سيثوباثي، المدير العام لحوكمة الذكاء الاصطناعي في Optro، أن الحوكمة لا ينبغي أن تُنظر إليها كعائق أمام الابتكار، بل كأساس لتمكين المؤسسات من نشر أنظمة ذكاء اصطناعي موثوقة وعالية الجودة. وأضاف أن المراقبة المتكاملة عبر دورة حياة الذكاء الاصطناعي تتيح للمؤسسات العمل بسرعة أكبر وبمستوى أمان أعلى.

 

وفي المجمل، يتعين على المؤسسات تعزيز أطر حوكمة الذكاء الاصطناعي لمواجهة المخاطر المتنامية، وتحسين مستويات الإشراف، وضمان تبني مسؤول ومستدام لهذه التقنيات عبر مختلف العمليات.