Home » الذكاء الإصطناعي » Dataiku Kiji تعزز الثقة في أنظمة الذكاء الاصطناعي الذاتية

 

تواصل Dataiku من خلال منصتها Kiji تطوير قدرات تفسير الذكاء الاصطناعي على مستوى المؤسسات، في وقت تتوسع فيه الشركات في نشر وكلاء الذكاء الاصطناعي ضمن سير العمل الحيوي. ولم يعد الأداء وحده كافياً، إذ باتت المؤسسات بحاجة إلى الشفافية والتحقق والحوكمة لفهم كيفية توليد الأنظمة لنتائجها، لا سيما في البيئات المنظمة.

 

وعبر مختبرها مفتوح المصدر 575 Lab، أطلقت Dataiku إطار Kiji Inspector™، وهو إطار مفتوح المصدر يهدف إلى تعزيز قابلية تفسير وكلاء الذكاء الاصطناعي في المؤسسات. ويُعد نموذج Nemotron المفتوح من NVIDIA أول عائلة نماذج يدعمها هذا الإطار.

 

ومع تزايد توجه المؤسسات نحو تبني الذكاء الاصطناعي السيادي وبناء بنى تحتية داخلية، يسهم الجمع بين نماذج Nemotron وإطار Kiji Inspector في تعزيز الرؤية حول القرارات المدعومة بالذكاء الاصطناعي. ويتيح ذلك فهماً أعمق لكيفية توليد المخرجات، مع معالجة مباشرة لمشكلة “الصندوق الأسود” التي لطالما واجهت الذكاء الاصطناعي المؤسسي.

 

ويعتمد Kiji Inspector™ في جوهره على تقنية Sparse Autoencoder، حيث يقوم بتحليل سلوك النموذج في اللحظة التي يتخذ فيها وكيل الذكاء الاصطناعي قرار استخدام أداة معينة، ثم يحدد الإشارات الرئيسية التي تقف وراء هذا القرار. ويتم تحويل هذه الإشارات إلى تفسيرات واضحة وقابلة للتتبع، دون التأثير على أداء النظام.

 

وقال هانِس هابكه، مدير مختبر 575 Lab في Dataiku، إن المؤسسات تدمج وكلاء الذكاء الاصطناعي في قرارات تؤثر على الإيرادات والسلامة والامتثال وثقة العملاء، إلا أن الكثير منها لا يزال يفتقر إلى رؤية هيكلية لآلية تفكير هذه الأنظمة. وأوضح أن غياب قابلية التفسير يؤدي إلى تضاعف حالة عدم اليقين مع توسع استخدام الذكاء الاصطناعي، مشيراً إلى أن دمج Kiji Inspector مع نماذج Nemotron يتيح تحسين التفسير قبل ظهور المخاطر، خاصة مع تطور الأنظمة الذاتية.

 

ويأتي هذا الإطلاق في إطار التعاون المستمر بين Dataiku وNVIDIA لتقديم حلول ذكاء اصطناعي توليدي ووكلائي جاهزة للإنتاج. وتوفر نماذج Nemotron قدرات متقدمة تلبي متطلبات أنظمة الذكاء الاصطناعي المؤسسية، فيما تقدم Dataiku منصة تنسيق قابلة للتوسع تربط بين منصات البيانات والتطبيقات المؤسسية وخدمات الذكاء الاصطناعي ضمن إطار حوكمة متكامل.

 

من جانبها، أكدت أماندا سوندرز، مديرة الذكاء الاصطناعي التوليدي في NVIDIA، أن توسيع نطاق وكلاء الذكاء الاصطناعي الذاتيين يتطلب بناء الثقة من خلال الشفافية والمساءلة، مشيرة إلى أن النماذج المفتوحة مثل Nemotron توفر رؤية أوضح لآليات عمل الأنظمة، وأن دمجها مع Kiji Inspector يمكّن المستخدمين من فهم العوامل التي تقود قرارات نماذج اللغة الكبيرة.

 

كما يتماشى تركيز Dataiku على الذكاء الاصطناعي القابل للتفسير مع احتياجات أكثر من 750 عميلاً من المؤسسات، يعمل العديد منهم في قطاعات معقدة ومنظمة. وفي هذا السياق، شددت شركة SLB العالمية على أهمية الشفافية مع توسعها في اعتماد تقنيات الذكاء الاصطناعي.

 

وقال سامباث ريدي، مدير الابتكار العالمي للبيانات والذكاء الاصطناعي في SLB، إن الذكاء الاصطناعي يحقق قيمة حقيقية في عمليات الطاقة عندما يتمكن المهندسون من فهم قراراته والثقة بها، مضيفاً أن سير العمل المعتمد والحوكمة القوية يمكّنان الفرق من نشر وتوسيع استخدام الذكاء الاصطناعي بثقة في البيئات الواقعية.

 

وبشكل عام، ومن خلال توسيع دعم Kiji Inspector ليشمل نماذج Nemotron، تمكّن Dataiku المؤسسات من الاستفادة من قدرات الذكاء الاصطناعي مفتوح المصدر عالي الأداء دون التضحية بالشفافية. ومع تزايد استقلالية وكلاء الذكاء الاصطناعي، يُتوقع أن تصبح قابلية التفسير عنصراً أساسياً لضمان النجاح طويل الأمد والامتثال التنظيمي وتعزيز القدرة التنافسية، ما يضع Dataiku Kiji في موقع محوري لبناء أنظمة ذكاء اصطناعي موثوقة وقابلة للتوسع.