Home » إختيارات المحرر » هل يمكن أن تكون الأخلاقيات في AI أكثر من مجرد شعارات؟

تنتقل أخلاقيات الذكاء الاصطناعي(Ai) من الكلام إلى العمل حيث تعيد القوانين والتعهدات وتدابير المساءلة العالمية تشكيل كيفية بناء التكنولوجيا ونشرها.

الذكاء الاصطناعي في كل مكان في عام 2025. فهو يكتب ويصمم ويتنبأ ويشخص ويوصي ويحكم بشكل متزايد. من المدن الذكية إلى قاعات المحاكم، تعمل قراراته على تشكيل حياتنا.

ولكن مع ازدياد قوة الذكاء الاصطناعي، هناك سؤال واحد يعلو صوته:

هل نبنيها بشكل مسؤول؟

أم أننا نقول الأشياء الصحيحة فقط؟

هذا الشهر، تصدّر الاتحاد الأوروبي عناوين الأخبار بإقراره “قانون الذكاء الاصطناعي“، الذي يُعد أول محاولة شاملة لتنظيم الذكاء الاصطناعي على نطاق واسع. يشمل هذا القانون حظرًا لبعض الاستخدامات، مثل التعرف على الوجوه في الوقت الفعلي في الأماكن العامة، وأنظمة التصنيف الاجتماعي، كما يضع قواعد صارمة على التطبيقات عالية الخطورة كالمراقبة البيومترية، وأدوات التوظيف، وأنظمة التقييم الائتماني.

لماذا هذا مهم؟ لأنه يشير إلى أن حوكمة الذكاء الاصطناعي تنتقل من الأخلاقيات الطوعية إلى قانون قابل للتنفيذ. لقد وضع الاتحاد الأوروبي سابقة قد يتبعها الآخرون، مثلما فعل مع اللائحة العامة لحماية البيانات لخصوصية البيانات.

ولكن هنا تكمن المشكلة: التنظيم لا يكون فعالاً إلا بقدر فعالية تطبيقه. فبدون رقابة وعقوبات واضحة، حتى أفضل القوانين يمكن أن تقصر حتى أفضل القوانين. يعد قانون الذكاء الاصطناعي الأوروبي بداية قوية، ولكن العالم يراقب كيف سيتم تطبيقه.

عبر المحيط الأطلسي، تواجه الولايات المتحدة ضغوطًا متزايدة للحاق بالركب. في مايو 2025، عقد الكونجرس جولة جديدة من جلسات الاستماع مع الجهات الفاعلة الرئيسية في مجال الذكاء الاصطناعي مثل OpenAI وMeta وGoogle DeepMind وAthropic. يدعو المشرعون إلى وضع معايير واضحة وشفافية.

وقد وقّع العديد من هذه الشركات على تعهدات طوعية للسلامة في مجال الذكاء الاصطناعي، ووعدت بتطوير الأنظمة بشكل مسؤول.

وفي الوقت نفسه، تستكشف كوريا الجنوبية مساراً مختلفاً. حيث يعمل المسؤولون على تطوير شهادة أخلاقيات الذكاء الاصطناعي، وهو نظام من شأنه أن يسمح للشركات بإثبات أن نماذجها عادلة وشفافة وآمنة.

هذه خطوة ذكية. فتحويل الأخلاقيات إلى شيء قابل للقياس وقابل للتصديق يمكن أن يساعد في سد الفجوة بين القيم والتحقق. ومع ذلك، فإن نجاح هذه المبادرة يعتمد على مدى استقلالية وشفافية وصرامة عملية الاعتماد.

المبادئ سهلة. الإثبات صعب.

تجدر الإشارة إلى أن كل شركة من شركات الذكاء الاصطناعي الكبرى اليوم قد نشرت مجموعة من المبادئ الأخلاقية. وتظهر كلمات مثل الثقة والسلامة والمساءلة والإنصاف بشكل بارز في منشورات المدونات وبيانات المهام.

  • كيف تُطبّق هذه المبادئ داخل المؤسسات؟
  • هل تُجرى مراجعات خارجية مستقلة؟
  • هل يتم الإعلان عن تقييمات الأثر؟
  • هل توجد آليات واضحة لاختبار التحيّز والتخفيف من آثاره؟

عندما تفشل أخلاقيات الذكاء الاصطناعي

لقد شهد العالم بالفعل عواقب تجاهل العدالة والشمولية في تصميم الذكاء الاصطناعي. ففي عام 2023، تبيّن أن نظام ذكاء اصطناعي يُستخدم في مستشفيات أمريكية يوصي بخيارات علاجية أقل للمرضى السود، نتيجة بيانات تدريب متحيّزة لم تُراعِ التفاوتات البنيوية في الرعاية الصحية.

وفي عام 2024، تعرّضت أدوات الذكاء الاصطناعي التوليدي لانتقادات حادة بسبب تحيّزات جندرية وعرقية، حيث كانت الصور الناتجة عند البحث عن “رئيس تنفيذي” أو “طبيب” تظهر في الغالب لرجال بيض، متجاهلةً التنوع الحقيقي في هذه المهن عالميًا.

هذه الحوادث ليست استثناءات عشوائية، بل أعراض لمشكلة أعمق: أنظمة الذكاء الاصطناعي المتدرّبة على بيانات متحيّزة ستُعيد إنتاج هذا التحيّز بل وتضخّمه.

ولهذا، لا يمكن التعامل مع الأخلاقيات باعتبارها إجراءً لاحقًا لإطلاق المنتجات، بل يجب أن تكون جزءًا جوهريًا من مراحل التطوير منذ البداية.

الإمارات تتصدّر المشهد الأخلاقي للذكاء الاصطناعي في الشرق الأوسط

في تطوّر لافت، بدأت قيادة أخلاقية للذكاء الاصطناعي تظهر من مناطق لم تكن تُعرف سابقًا بتنظيمات التكنولوجيا، ومنها دولة الإمارات العربية المتحدة.

تُولي الاستراتيجية الوطنية للذكاء الاصطناعي 2031 اهتمامًا كبيرًا بالعدالة والشفافية والشمولية، وهو توجّه يتجاوز التصريحات النظرية، حيث تُسهم مؤسسات مثل جامعة محمد بن زايد للذكاء الاصطناعي (MBZUAI) في إعداد جيل جديد من الباحثين بتركيز واضح على الحوكمة والأخلاقيات ضمن مناهجهم التعليمية.

يمثّل هذا التوجّه تطورًا حاسمًا، ويثبت أن الدول خارج المراكز التقليدية للتقنية، مثل الولايات المتحدة والاتحاد الأوروبي، قادرة على التأثير في وضع المعايير العالمية. فالإمارات لا تكتفي باستيراد الابتكار، بل تسهم في رسم ملامح حوكمته أيضًا.

منصات للحوار العالمي

لم تعد فعاليات كبرى مثل AI Everything وGITEX GLOBAL في دبي مجرد منصات لعرض المنتجات، بل أصبحت منابر تجمع الخبراء العالميين، وصنّاع السياسات، والمختصين في الأخلاقيات، لمناقشة ممارسات الذكاء الاصطناعي المسؤول، والمخاطر، والحلول.

تكتسب هذه الفعاليات أهمية خاصة لكونها تُعطي صوتًا للأسواق الناشئة في نقاشات الذكاء الاصطناعي الأخلاقي، وتدفع نحو تعاون عابر للحدود — وهو بالضبط ما تحتاجه حوكمة الذكاء الاصطناعي اليوم.

فالأنظمة الذكية لا تتوقف عند حدود وطنية. تقنيات مثل التعرّف على الوجوه، والنماذج اللغوية الضخمة، والتحليلات التنبؤية تعمل عالميًا، ومن دون توافق عالمي على المبادئ الأخلاقية، سنواجه أنظمة مجزّأة بحماية غير متكافئة.

ما المطلوب الآن؟

الخطى تتسارع في الاتجاه الصحيح، لكن التحدي يكمن في تحويل المبادئ إلى واقع ملموس. نحتاج إلى:

  • القيم… مصحوبة بآليات تحقق.
  • التعهدات… مدعومة بسياسات واضحة.
  • النوايا… مترجمة إلى مراجعات مستقلة.

يجب تضمين الأخلاقيات في دورة حياة الذكاء الاصطناعي، بدءًا من التصميم إلى النشر، عبر اختبارات للتحيّز قبل الإطلاق، وضمان الشفافية في القرارات، وتوفير قنوات واضحة للمساءلة عند حدوث الخطأ.

إن حوكمة الذكاء الاصطناعي لا ينبغي أن تُعيق الابتكار، بل يجب أن تُرشده وتوجّهه.

ورغم السرعة الهائلة لتطوّر أدوات وتقنيات الذكاء الاصطناعي، فإن الفرصة سانحة لتعريف شكل المستقبل الذي نريده. ففي عام 2025، يجب ألا يكون الذكاء الاصطناعي الأخلاقي مجرّد موضوع رائج أو شعار تسويقي، بل قاعدة أساسية ننطلق منها.

لأن القرارات التي تصدرها التقنية يجب أن تعكس القيم الإنسانية، لا مجرد منطق الآلة.

بقلم: رباب زهرة، رئيسة التحرير التنفيذية في تك إكس