Home » رأي الخبراء » ارتفاع مخاطر الذكاء الاصطناعي مع قصور نماذج الحوكمة التقليدية

اعتمدت المؤسسات بشكل كبير على نماذج الحوكمة التقليدية المصممة لأنظمة يمكن التنبؤ بها وسير عمل ثابت، مع تسارع تبني تقنيات الذكاء الاصطناعي. لكن مع تحول الذكاء الاصطناعي إلى جزء أساسي من مختلف الوظائف واتخاذ القرار في الوقت الفعلي، بدأت هذه النماذج القديمة تواجه صعوبة في مواكبة المخاطر المتسارعة والمتغيرة.

وبحسب غورو سيثوباتهي، المدير العام لحوكمة الذكاء الاصطناعي في Optro، فإن الفجوة بين أطر الحوكمة والاستخدام الفعلي للذكاء الاصطناعي داخل المؤسسات تتسع بشكل ملحوظ.

على مدار العامين الماضيين، ركزت معظم النقاشات حول الذكاء الاصطناعي في مجالس الإدارة على سؤال واحد: هل نتبنى التقنية بالسرعة الكافية؟ حيث كان القادة قلقين من التخلف عن المنافسين أو فقدان مكاسب الإنتاجية أو عدم الاستفادة من نماذج الأعمال الجديدة، مما أدى إلى تسريع الاستثمارات والتبني.

لكن مع ترسخ الذكاء الاصطناعي داخل المؤسسات، يظهر سؤال جديد أكثر إلحاحاً، وغالباً ما تكون فرق القيادة غير مستعدة له بالشكل الكافي: وهو سؤال الحوكمة.

الطبيعة “الخارجة عن الصندوق” لاعتماد الذكاء الاصطناعي

تأمل كيف يدخل الذكاء الاصطناعي فعلياً إلى المؤسسات. تتعرض وحدات الأعمال لضغوط لإثبات حالات استخدام ملموسة وعائد استثمار واضح. ونتيجة لذلك، تستخدم فرق الهندسة الذكاء الاصطناعي في البرمجة. وقد تقوم فرق التسويق بتجربة أدوات توليد المحتوى لإنتاج حملات تسويقية بسرعة أعلى. أما أقسام الموارد البشرية، فقد تنشر مساعدين افتراضيين مدعومين بالذكاء الاصطناعي للتعامل مع استفسارات الموظفين. ومن المرجح أن تستكشف فرق المالية نماذج التنبؤ التي تحلل كميات ضخمة من البيانات في ثوانٍ.

وبالتوازي مع هذه المبادرات الرسمية، تظهر طبقة أخرى من الاعتماد. إذ يتجه الموظفون إلى استخدام أدوات الذكاء الاصطناعي بشكل فردي ومن خلال قنوات غير معتمدة رسمياً. فهم يستفيدون منها في تلخيص التقارير، وصياغة رسائل البريد الإلكتروني، وتحليل جداول البيانات، أو توليد الأفكار. وتنتشر هذه الظاهرة، المعروفة باسم “الذكاء الاصطناعي الظلي”، بسرعة لأنها تحل مشكلة فورية: فهي تساعد الأشخاص على إنجاز أعمالهم بشكل أسرع.

علاوة على ذلك، فإن معظم أدوات الموردين إما تحتوي على ذكاء اصطناعي مدمج، أو تدّعي ذلك ضمن تقنياتها.

وبالنظر إلى مجمل الطرق التي يمكن للذكاء الاصطناعي أن يدخل بها إلى المؤسسة، يتضح أمر مهم. لم يعد الذكاء الاصطناعي أداة محصورة داخل نظام تقني محدد أو فريق واحد بعينه. بل أصبح مدمجاً بشكل متزايد داخل سير العمل الحقيقي حيث يتم إنجاز المهام عبر مختلف أقسام المؤسسة. وهذا التحول الدقيق يغيّر طبيعة المخاطر التجارية بشكل جوهري.

إعادة التفكير في المخاطر داخل المؤسسة المعتمدة على الذكاء الاصطناعي

لعقود طويلة، كانت المؤسسات تدير مخاطر التكنولوجيا من خلال حوكمة الأنظمة. يتم اعتماد التقنيات الجديدة ونشرها وتأمينها ومراقبتها عبر عمليات منظمة. تحدد السياسات الاستخدام المقبول، ويعزز التدريب التوقعات، بينما تتولى أقسام مثل تقنية المعلومات وإدارة المخاطر والامتثال مهام الإشراف. وقد نجح هذا النموذج لأن معظم تقنيات المؤسسات كانت تتصرف بشكل يمكن التنبؤ به.

لكن الذكاء الاصطناعي يضيف مستوى إضافياً من التعقيد. فقد يكون الذكاء الاصطناعي نظاماً تقنياً معقداً أو نموذجاً تنبؤياً بسيطاً. وقد يكون التقنية بأكملها أو مجرد ميزة صغيرة داخل منتج. ويمكن استخدام نفس أداة الذكاء الاصطناعي بطرق متعددة تتراوح بين الاستخدامات البسيطة والمخاطر العالية. كما يمكن لوكلاء الذكاء الاصطناعي تنفيذ المهام تلقائياً بطرق غير شفافة.

بمعنى آخر، لا يقتصر سطح المخاطر الأساسي على تقنية الذكاء الاصطناعي نفسها، بل يشمل أيضاً سلوك الإنسان وحكمه المرتبط بها. كما أن الفحوصات اللحظية غير كافية، إذ يصبح الرصد المستمر أمراً بالغ الأهمية. ولهذا غالباً ما تفشل أساليب الحوكمة التقليدية في مواكبة هذا الواقع.

عادةً ما تكون السياسات موجودة في مستندات نادراً ما يعود إليها الموظفون. وغالباً ما يحدث التدريب قبل أشهر من مواجهة الموظف لسيناريو حقيقي يتضمن أدوات الذكاء الاصطناعي. وبحلول اللحظة التي يقرر فيها الموظف ما إذا كان سيقوم بإدخال معلومات حساسة في نموذج توليدي أو الاعتماد على تحليل آلي، تكون تلك الضوابط بعيدة عن نقطة اتخاذ القرار الفعلية.

عندما تصبح التكنولوجيا مدمجة مباشرة في لحظة اتخاذ القرار، يجب أن تتطور إدارة المخاطر أيضاً.

الغموض حول المسؤولية

يزداد التعقيد بسبب الطريقة التي يتم بها توزيع مسؤولية الذكاء الاصطناعي. وبسبب تداخل التكنولوجيا مع العديد من جوانب المؤسسة، غالباً ما يتم توزيع الإشراف بين عدة وظائف تشمل تقنية المعلومات والأمن القانوني والامتثال والقيادة التنفيذية.

ورغم أن الهدف هو تقاسم المسؤولية، إلا أن النتيجة غالباً ما تكون تشتتاً في الرؤية. فلا توجد جهة واحدة تمتلك صورة كاملة عن كيفية استخدام الذكاء الاصطناعي عبر المؤسسة، ولا توجد جهة واحدة قادرة دائماً على اتخاذ إجراءات سريعة وحاسمة عند ظهور المخاوف. وهكذا تصبح المسؤولية موزعة في اللحظة التي تكون فيها الحاجة إلى الوضوح في أعلى مستوياتها.

تحول في القيادة

في مجالس الإدارة، يجب أن يتطور النقاش حول الذكاء الاصطناعي. بدلاً من السؤال: “أين يجب أن ننشر الذكاء الاصطناعي؟”، يحتاج الرؤساء التنفيذيون إلى طرح سؤال مختلف: “كيف نضمن استخدام الذكاء الاصطناعي بشكل آمن ومسؤول عبر سير العمل اليومي؟”

عملياً، يبدأ ذلك من خلال تحديد سلطة واضحة للتعامل مع أي خطأ، بما في ذلك تحديد من يملك القدرة على إيقاف أو تعطيل نظام ذكاء اصطناعي، وضمان فهم مسارات التصعيد قبل وقوع الحوادث.

كما يعني ذلك نقل مبادئ الاستخدام المقبول من المستندات الثابتة إلى داخل بيئة العمل نفسها، بحيث يتم تضمين الضوابط داخل الأنظمة التي يستخدمها الموظفون بدلاً من الاعتماد على إرشادات خارج سير العمل.

كما يجب أن يتطور التدريب أيضاً. فبدلاً من برامج تدريبية تُقدم مرة واحدة قبل فترة طويلة من استخدام الأدوات، بدأت المؤسسات بالبحث عن طرق لتقديم الإرشادات في السياق نفسه، وفي لحظة اتخاذ القرار، عندما يكون خطر سوء الاستخدام في أعلى مستوياته.

والأهم من ذلك، تدرك العديد من الشركات حدود الإشراف اليدوي. فالمراجعات الدورية وأنظمة التقارير المجزأة لا تستطيع مواكبة سرعة تطور استخدام الذكاء الاصطناعي. ولذلك أصبحت أدوات التحكم المستمر والمراقبة الآلية والرؤية الموحدة للمخاطر عناصر أساسية للحفاظ على الوعي عبر المؤسسة.

موازنة معادلة المخاطر الجديدة

كل ذلك يمثل تحولاً في العقلية والقدرات والتقنيات المرتبطة بالحوكمة. فعلى مدى سنوات، نجحت المؤسسات في إدارة نشر التكنولوجيا. لكن الذكاء الاصطناعي لا يمكن التعامل معه بالطريقة نفسها تماماً. بدلاً من ذلك، يجب على القادة التركيز على فهم كيفية تأثير التكنولوجيا في تعزيز قرارات الإنسان داخل سير العمل اليومي.

الميزة الحقيقية في المستقبل لن تكون في امتلاك الذكاء الاصطناعي، إذ ستتوفر نفس التقنيات لجميع المؤسسات، بل في القدرة على إدارة وحوكمة هذا الذكاء الاصطناعي بشكل فعال. تلك المؤسسات ستكون أسرع حركة، وأكثر قدرة على إدارة المخاطر، وهذا سيكون النموذج الرابح.

بقلم: غورو سيثوباثي، المدير العام لحوكمة الذكاء الاصطناعي في Optro