Home » رأي الخبراء » مفارقة الحوكمة مقابل النمو

مع تسارع الدول في تحقيق طموحاتها في مجال الذكاء الاصطناعي، لم يعد التحدي الحقيقي يكمن في الحجم أو النطاق، بل في الإشراف والحوكمة. في مقالته بعنوان The Governance–Growth Paradox، يستعرض حسام حسنين، استراتيجي البيانات والذكاء الاصطناعي في Informatica، كيف يمكن للحوكمة، عندما تُدمج مبكرًا، أن تصبح محفزًا للنجاح بدلاً من أن تكون قيدًا على تطبيقات الذكاء الاصطناعي السيادي.

في نوفمبر 2022، أطلق ChatGPT ما وصفه الكثيرون بسباق الذكاء الاصطناعي الحديث. وسرعان ما تبع ذلك مزودو الحوسبة الضخمة (Hyperscalers) الذين تنافسوا على حجم النماذج وقوة الحوسبة، فيما دمجت الشركات الذكاء الاصطناعي التوليدي في المنتجات وسير العمل. لاحقًا، لاحظت الحكومات ذلك، فسرّعت استراتيجياتها الوطنية للذكاء الاصطناعي، واستثمرت في البنية التحتية السيادية، وأعلنت عن نماذج بلغات محلية. بدا أن القيادة تُقاس بالحجم.

اليوم، تغيرت المحادثة. في مكاتب الوزراء وغرف الاجتماعات، السؤال الأساسي لم يعد “ما مدى قوة ذكاءنا الاصطناعي؟”، بل أصبح “من يحكمه، وعلى أي أسس؟”. على المستوى الوطني، تُعرّف القيادة عبر الاتساق؛ فالأتساق هو ما يمكّن الوزارات من الاعتماد على مصدر بيانات موثوق واحد، ويجعل أنظمة الذكاء الاصطناعي تعمل وفق تعريفات مشتركة للمواطنين والشركات، ويجعل القرارات السياسية تدعم بعضها البعض بدلاً من التناقض.

يساهم هذا في تقليل التكرار، وتسريع التنفيذ، وبناء الثقة المؤسسية، ويعتمد بشكل أساسي على الحوكمة، وخصوصًا توقيت تطبيقها المبكر.

 

وجهان لعملة واحدة

هناك اعتقاد شائع بأن الحوكمة تُبطئ الابتكار، وغالبًا ما يكون هناك بعض الحقيقة في ذلك. خذ على سبيل المثال البنوك العالمية بعد الأزمة المالية: لم يتوقف الابتكار بسبب وجود التنظيم، بل لأن أطر الحوكمة تم إضافتها لاحقًا إلى أنظمة تطورت بسرعة دون ضوابط واضحة.

نفس الديناميكية قد تتكرر الآن في مجال الذكاء الاصطناعي. تطلق الوزارات والوكالات مشاريع تجريبية بشكل مستقل، وتنجح إثباتات المفهوم، وتثير لوحات البيانات الإعجاب. وتخلق المكاسب المبكرة ثقة، لكن عند محاولة التوسع على نطاق وطني، يؤدي هذا التسارع غير المنسق إلى احتكاك وتشظّي. ما يبدأ بالسرعة يتحوّل إلى تفكك.

تصحيح هذا لاحقًا أصعب بكثير من منعه؛ ويتجلى ذلك في تأثير كرة الثلج التصحيحي الذي سيزداد مع الوقت نظرًا لوتيرة انتشار الذكاء الاصطناعي غير المسبوقة. بمجرد دمج أنظمة الذكاء الاصطناعي في سير العمل، يصبح توحيد التعريفات، وإعادة توزيع السلطات، وإعادة تدريب النماذج عملية معقدة ومكلفة.

هذه هي مفارقة الحوكمة مقابل النمو: إذا تم إدخال الحوكمة متأخرًا، فإنها تبطئ الابتكار؛ أما إذا طُبقت مبكرًا، فإنها تسرّعه.

عندما يتفاقم هذا التأثير في منظومة القطاع العام، فإنه سيؤثر بلا شك على جودة حياة المواطنين، والأهم من ذلك على الأمن القومي—وكل ذلك يمثل خطوطًا حمراء لا يمكن تجاوزها.\

 

الحوكمة وفقًا للتصميم

يكمن الفرق في التسلسل الزمني للتطبيق. عندما تُعتبر الحوكمة مبدأً أساسيًا للتصميم وليس مجرد طبقة سياسة إضافية، فإنها تشكّل السلوكيات قبل إدخال الحجم أو النطاق. توضح من يملك السلطة، وكيف تُعرّف البيانات، وكيف يتم مشاركتها. لا يشعر المستخدمون بأي احتكاك، لأن الحوكمة مدمجة في بنية النظام منذ البداية.

ونرى هذا يتجلى في دول مجلس التعاون الخليجي، حيث بدأت بعض البرامج الوطنية بشكل صحيح مع وضوح تنفيذي. تم ترسيخ سلطة البيانات ضمن الهياكل الحكومية القائمة، وتتوافق القوانين الوطنية للبيانات مع استراتيجيات التنمية طويلة المدى. كما تُبلّغ أطر الحوكمة مبكرًا، بحيث يحدث توسع الذكاء الاصطناعي ضمن نموذج تشغيلي مشترك بدلًا من العمل خارجه.

ويكمن جوهر هذا النموذج التشغيلي في موازنة استقلالية الجهات الحكومية مع الأرضية المشتركة التي تدمج الحوكمة في النسيج العام للقطاع العام.

والنتيجة هي التقارب؛ حيث تكمل مبادرات الذكاء الاصطناعي بعضها البعض لأنها تعمل من أسس مشتركة.

 

مسارات آمنة للابتكار

لتنفيذ هذه “المسارات الآمنة” للذكاء الاصطناعي، يجب الانتقال من المبادئ إلى الهيكلية العملية:

وضوح السلطة: يجب أن تكون السلطات محددة وصريحة، مع تعريف واضح للأدوار ومسؤوليات الإشراف، لتقليل الغموض بين الوزارات.

المعايير والبيانات المشتركة: الاتفاق المسبق على معايير البيانات والتعريفات الأساسية قبل انتشار الأنظمة، لتجنب النزاعات المستمرة حول المعاني.

الاكتشاف وقابلية التتبع: دمج هذه الوظائف في المنصات بحيث يتمكن صانعو القرار من معرفة مصدر البيانات وكيفية تطورها.

دمج الحوكمة ضمن سير العمل: يجب أن تكون الحوكمة جزءًا من الأنظمة وسير العمل نفسه، وليس من خلال لجان إشراف يدوية منفصلة تُبطئ التقدم.

عند تفعيل هذه الآليات، يزداد سرعة الابتكار، حيث يمكن للفرق بناء وتوسيع حلول الذكاء الاصطناعي بثقة، مع العلم أن الثقة والمساءلة والامتثال مدمجة بالفعل في أساس النظام.

 

السياق الموثوق: أساس الذكاء الاصطناعي السيادي

يكمن سر نجاح الطموحات الوطنية للذكاء الاصطناعي السيادي في الثقة. فهي العملة الأساسية لتبني الذكاء الاصطناعي. وبدونها، يلجأ القادة إلى الفحوصات اليدوية وهياكل التقارير الموازية، وعلى المستوى الوطني تكون المخاطر أكبر بكثير.

يبدأ إنشاء السياق الموثوق بالمواءمة. يجب توحيد تعريفات الأعمال عبر جميع المجالات. كما يجب أن تمتلك الكيانات الأساسية، مثل المواطنين والشركات والأصول الوطنية، سجلات رئيسية متسقة. ويجب تحديد الملكية والإشراف بوضوح، بحيث تكون المساءلة مرئية بدلًا من ضمنية.

لكن بالنسبة لأنظمة الذكاء الاصطناعي، وخصوصًا تلك التي تعمل عبر وكالات متعددة، يجب أن يتم تقديم ذلك كقدرة موحدة. إذ يجب أن يشمل تكامل البيانات جميع المصادر والفترات الزمنية، حتى تعمل النماذج من معلومات كاملة. كما يجب إدارة جودة البيانات بشكل استباقي قبل استهلاكها بواسطة الذكاء الاصطناعي. ويجب تضمين الحوكمة والأمن وقابلية التدقيق داخل المنصة نفسها. ويجب أن يضمن إدارة البيانات الرئيسية أن تفهم كل الأنظمة الكيانات بنفس الطريقة.

تتقاطع كل هذه العناصر مع الضرورة الأساسية: التأصيل الأنطولوجي للذكاء الاصطناعي الذي يحتاجه النماذج والوكلاء للعمل على نطاق واسع. في هذا السياق، يعالج التأصيل الأنطولوجي أسئلة جوهرية: ما هو الشيء؟ ما الفئات التي ينتمي إليها؟ كيف يمكن التعرف عليه بدقة من كل منظور ذي صلة؟

تتمتع نماذج الذكاء الاصطناعي، وخصوصًا النماذج اللغوية الكبيرة (LLMs)، بقدرة عالية على الاستنتاج من خلال الارتباطات متعددة الأبعاد عبر فضاء المعلومات. ومع ذلك، كلنا شهدنا محدوديتها عند مواجهة غموض النوايا أو الهلوسة أو التفسير غير المتسق. ومع ذلك، أصبح بإمكان الدول والمنظمات السيادية الآن تزويد وكلاء الذكاء الاصطناعي بخريطة معلومات محكومة لتجاوز هذه التحديات الخطرة. ومن هذا المنظور، يشكّل ذلك الأساس للحفاظ على حوكمة الذكاء الاصطناعي، الآن وفي المستقبل.

عندما تعمل هذه العناصر معًا، يكتسب الذكاء الاصطناعي سياقًا موثوقًا. فهو يعكس الواقع الوطني بدلًا من المعلومات المجزأة التي لا يمكن للقادة السياديين الاعتماد عليها في اتخاذ القرارات. وبدون هذا السياق، يوسّع الذكاء الاصطناعي التناقضات. ومعه، يوسّع الذكاء الاصطناعي الاستراتيجية.

 

القادة الإقليميون يحققون النجاح

نشهد في المنطقة برامج تحول وطني جديرة بالثناء تُدرك أهمية التسلسل والتنظيم. ففي هذه الحالات، تبدأ النقاشات بالسلطة، وليس الخوارزميات. فقد قام القادة بتوضيح من يحدد المعايير، وكيف تُحل النزاعات بين الوزارات، وكيف يتماشى قانون البيانات مع استراتيجيات التنمية الأوسع. تُؤسس أطر الحوكمة قبل انتشار مبادرات الذكاء الاصطناعي، وتُدمج السلطة ضمن الهياكل التنفيذية القائمة بدلًا من إضافتها كطبقة جديدة. وأكبر تحول تحقق لم يكن مدفوعًا بالأداء التقني بقدر ما كان باليقين المؤسسي. وفي الوقت ذاته، يواصل التنافس الجيوسياسي التسارع. وبالتالي، فإن القادة السياديين الذين ينتهزون فرصة التكيف مع الواقع الحالي لن يزدهروا فقط، بل سيقودون الطريق.

 

من السياسة إلى المنصة

تتطور الحوكمة الآن من وثائق ثابتة إلى بنية تحتية مدمجة. عندما تُشفّر مباشرة ضمن منصات البيانات، تصبح الحوكمة بمثابة لوحة التحكم للذكاء. يتم تعريف السلطة ضمن النظام، ويصبح مسار البيانات مرئيًا، ويتم مراقبة الجودة باستمرار، وتكون الأمن وقابلية التدقيق جزءًا أساسيًا وليس إضافيًا.

في هذا النموذج، لا تُعد الحوكمة عبئًا إداريًا، بل هي بنية تحتية وطنية، وتزداد قيمتها مع توسع تبني الذكاء الاصطناعي.

 

التوقيت هو الاستراتيجية

مع تحول النماذج والحوسبة والمواهب إلى سلع متاحة على نطاق واسع، لم تعد القدرة التقنية وحدها ميزة تنافسية. تظل الحوكمة سيادية وفريدة لأنها تحدد من يمتلك السلطة على الذكاء الوطني وكيف يتماشى مع القانون الوطني والأمن والاستراتيجية التنافسية طويلة المدى لصالح الأمة.

التوقيت هو ما يحدد هذا المسار. فالدول التي تُرسخ الثقة والسلطة والأسس المشتركة للبيانات مبكرًا، تحول طموح الذكاء الاصطناعي السيادي إلى قوة مؤسسية واقتصادية مستدامة. أما الدول التي تتأخر، فقد تنشر أنظمة متقدمة، لكنها تخاطر بالاعتماد على معلومات لا تحكمها أو تثق بها بالكامل، أو — والأسوأ — تخاطر بنشر كيانات ذكاء اصطناعي تقوّض الهوية الوطنية والأمن والطموحات المستقبلية.

هذه هي المرحلة الجديدة من الذكاء الاصطناعي السيادي، حيث لا يُقاس النجاح بمن يبني أولًا، بل بمن يبني على الأساس الصحيح.

 

بواسطة حسام حسنين، استراتيجي البيانات والذكاء الاصطناعي في Informatica