Home » سلسلة القيمة التقنية » قادة البيانات في الإمارات يكشفون مخاطر الذكاء الاصطناعي في تقرير اعترافات الذكاء الاصطناعي

أظهر تقرير اعترافات الذكاء الاصطناعي  إصدار قادة البيانات الصادر عن شركة Dataiku، المنصة العالمية للذكاء الاصطناعي، أن نحو 94% من قادة البيانات في دولة الإمارات يقرّون بعدم امتلاكهم رؤية كاملة حول كيفية اتخاذ أنظمة الذكاء الاصطناعي قراراتها. وأُجريَت الدراسة بواسطة مؤسسة ذا هاريس بول لصالح Dataiku ، وشملت أكثر من 800 من كبار التنفيذيين في مجال البيانات عبر ثماني دول، لتكشف عن مخاطر متصاعدة في الحوكمة وثقة مفرطة بالذكاء الاصطناعي المؤسسي على مستوى الدولة.

ويأتي صدور التقرير في وقت تواصل فيه دولة الإمارات تسريع خطاها نحو ترسيخ مكانتها كمركز عالمي للذكاء الاصطناعي، في إطار الاستراتيجية الوطنية للذكاء الاصطناعي 2031. إلا أن النتائج كشفت عن تحديات في تحقيق التوازن بين الابتكار السريع والرقابة المسؤولة، حيث أشار التقرير إلى أن 17% فقط من المشاركين في الإمارات يطلبون من أنظمة الذكاء الاصطناعي توضيح آلية عملها بشكل دائم، مما يعكس ضعف الشفافية في استخدام الذكاء الاصطناعي المؤسسي.

كما بيّن التقرير أن 62% من قادة البيانات في الإمارات غير واثقين من قدرة أنظمة الذكاء الاصطناعي لديهم على اجتياز تدقيق أساسي لقراراتها، في حين أقرّ نصفهم فقط بتأجيل أو إيقاف نشر أحد أنظمة الذكاء الاصطناعي بسبب مخاوف تتعلق بالشفافية. ورغم ذلك، أكد 72% أنهم ما زالوا يثقون بقدرة أنظمة الذكاء الاصطناعي على اتخاذ قرارات مستقلة في العمليات التجارية الحساسة، حتى من دون تفسير واضح، ما يشير إلى أن وتيرة تبنّي الذكاء الاصطناعي تفوق سرعة تطور ممارسات الحوكمة.

وأظهر التقرير أيضًا وجود اختلاف في التوقعات بين قادة البيانات والإدارة العليا، حيث أفاد 59% من المشاركين بأن الإدارة التنفيذية العليا تبالغ في تقدير دقة أنظمة الذكاء الاصطناعي، بينما يرى 64% أن القيادة تقلّل من أهمية الوقت والتعقيد اللازمين لتجهيز هذه الأنظمة للإنتاج.

  • وأقرّ 32% من القادة بأنهم طُلب منهم الموافقة على مبادرات في الذكاء الاصطناعي لم يشعروا بالارتياح تجاهها،
  • فيما يرى 75% أن استراتيجية شركتهم في الذكاء الاصطناعي مدفوعة بالطموح التكنولوجي أكثر من الأهداف التجارية.

كما كشفت الدراسة أن قادة البيانات في الإمارات يدركون عواقب أقل لفشل أنظمة الذكاء الاصطناعي مقارنة بنظرائهم عالميًا. ففي حين يتوقع 56% من المشاركين عالميًا إقالة أحد الرؤساء التنفيذيين بحلول عام 2026 بسبب قضايا تتعلق بالذكاء الاصطناعي، فإن 35% فقط من القادة في الإمارات يشاركون هذا الاعتقاد. كما قال 53% إنهم لا يشعرون بأن وظائفهم مهدَّدة إذا فشلت شركاتهم في تحقيق مكاسب ملموسة من الذكاء الاصطناعي خلال العامين المقبلين، وهو أعلى مستوى من الشعور بالأمان الوظيفي على مستوى العالم.

من جانبه، قال فلوريان دويتو، الشريك المؤسس والرئيس التنفيذي لشركة “داتايكو”، إن التقرير يوضح أن العديد من المؤسسات في الإمارات تعتمد على أنظمة ذكاء اصطناعي لا تثق بها بالكامل، مضيفًا:”الخبر الإيجابي هو أن التحديات المتعلقة بالحوكمة، مثل الشفافية والتتبّع، يمكن التغلب عليها. وكلما ركّزت المؤسسات على بناء أنظمة مسؤولة وواضحة، انتقل الذكاء الاصطناعي بسرعة أكبر من الضجة إلى التأثير التجاري الفعلي”.

وأظهرت نتائج التقرير أن قادة البيانات في الإمارات يضعون دقة أنظمة الذكاء الاصطناعي في مقدمة أولوياتهم، حيث اعتبر 57% منهم أن موثوقية الأداء هي العامل الأهم، بينما أعطى 10% فقط الأولوية للتكلفة. كما أبدى عدد كبير منهم تحفّظًا في استخدام الذكاء الاصطناعي في المجالات الحساسة، إذ أشاروا إلى أن:

  • 55% لن يسمحوا أبدًا للذكاء الاصطناعي باتخاذ قرارات التوظيف أو الفصل،
  • 48% يستبعدون استخدامه في المسائل القانونية أو الامتثال التنظيمي،
  • 39% يتجنبون تطبيقه في مجالات الصحة النفسية أو دعم رفاه الموظفين.

وفي هذا السياق، قال سيد باتيا، نائب الرئيس الإقليمي والمدير العام لمنطقة الشرق الأوسط وتركيا وأفريقيا في “داتايكو”، إن المؤسسات الإماراتية تتصدر مشهد تبنّي الذكاء الاصطناعي في المنطقة، لكنها تحتاج إلى مواصلة التركيز على النمو المسؤول، مضيفًا:”مع توجّه الجهات التنظيمية في المنطقة نحو تطوير أطر حوكمة للذكاء الاصطناعي، أمام الشركات فرصة للريادة من خلال بناء نظم مساءلة داخلية وتعزيز الشفافية في جميع مراحل دورة حياة الذكاء الاصطناعي”.