Home » التقنيات الناشئة » الذكاء الاصطناعي في الأمن السيبراني: حامي أم متظاهر؟

يُحدث الذكاء الاصطناعي ثورة في مجال الأمن السيبراني، من حيث كشف التهديدات والاستجابة لها، لكنه يثير أيضًا تساؤلات ملحّة بشأن الثقة والسلامة والرقابة، في ظل تصاعد التزييف العميق وضعف الحوكمة.

ووفقًا لتقرير الأمن السيبراني الصادر عن IBM لعام 2025، فإن الذكاء الاصطناعي قادر على كشف ما بين 85% إلى 90% من الهجمات الإلكترونية، متفوقًا بشكل كبير على الأساليب التقليدية. كما أن مراكز العمليات الأمنية المدعومة بالذكاء الاصطناعي تقلّص الإنذارات الكاذبة بنسبة 50%، وتُعالج نصف الحوادث الأمنية بشكل تلقائي.

وفي دولة الإمارات، تتسارع وتيرة تبنّي الذكاء الاصطناعي في مجال الأمن السيبراني، حيث تشير تقارير من PwC وشركات استشارية أخرى إلى أن الغالبية العظمى من الشركات في المنطقة باتت تعتمد أدوات الذكاء الاصطناعي لتعزيز كشف التهديدات، وأتمتة الاستجابة للحوادث، وتسريع استعادة الأنظمة.

وتعتمد هذه الأدوات على تعلّم الآلة وتتبع السلوكيات، ما يساعد على اكتشاف الأنشطة غير المعتادة، والتصدي للهجمات الجديدة بسرعة. وقد تمكنت فرق الأمن من تقليص أوقات الاستجابة بنسبة 35% بفضل هذه التقنيات، وهو تحسّن بالغ الأهمية في بيئات تتعامل مع كمّ هائل من البيانات.

لكن المهاجمين يستخدمون الذكاء الاصطناعي أيضًا

من ناحية أخرى، لا تقتصر الاستفادة من الذكاء الاصطناعي على الجهات المدافعة، بل أصبح المهاجمون يستخدمونه لتطوير أساليب أكثر خداعًا. فقد أشار تقرير صادر عن Fortinet إلى أن هناك أكثر من 36,000 عملية مسح ضوئي مدعومة بالذكاء الاصطناعي تحدث كل ثانية، بزيادة قدرها 17% مقارنة بالعام الماضي.

ويقوم القراصنة بإنشاء رسائل تصيّد إلكتروني شديدة الإقناع، وتزوير أصوات باستخدام الذكاء الاصطناعي لخداع الضحايا، وتنفيذ هجمات تلقائية معقّدة. وفي إحدى الحوادث بالمملكة المتحدة، تم خداع موظف لتحويل 240,000 دولار بعد سماعه تسجيلًا مزيفًا لصوت المدير التنفيذي. وفي حادثة مشابهة، استخدم صحفي في مؤسسة إعلامية كبرى صوتًا مزيفًا لتجاوز نظام تحقق بنكي خلال دقائق.

وقد أظهرت دراسة أُجريت عام 2024 أن 66% من المشاركين لم يستطيعوا التمييز بين الأصوات البشرية وتلك المُنتَجة عبر الذكاء الاصطناعي، بينما فشل 44% في كشف مقاطع الفيديو المزوّرة، ما يؤكد تعقيد هذه التهديدات المتقدّمة.

كما كشفت دراسة أُجريت في جامعة كوليدج لندن (UCL) أن المشاركين استطاعوا كشف الخطاب المصطنع بنسبة 73% فقط، وذلك بعد اختبار شمل 529 شخصًا استمعوا إلى مقاطع صوتية حقيقية ومزيّفة باللغتين الإنجليزية والصينية.

أما دراسة أخرى من جامعة فلوريدا نُشرت في نوفمبر 2024، فقد اختبرت 1200 مشارك لتحديد مدى قدرتهم على تمييز الصوت الحقيقي من المزيّف، وأظهرت النتائج أن الكثير منهم خُدع بسبب تفاصيل اصطناعية مثل اللهجات والضوضاء الخلفية.

فجوة الحوكمة

ورغم استخدام العديد من الشركات لتقنيات الذكاء الاصطناعي، فإن عددًا قليلًا منها يضع قواعد واضحة لاستخدامها الآمن. فقد أظهر استطلاع حديث أُجري عام 2025 على الفرق القانونية في القطاع المالي أن 90% من الشركات تعتمد أدوات الذكاء الاصطناعي، لكن 18% فقط وضعت سياسات رسمية لتنظيم استخدامها، بينما يلتزم 29% فقط بهذه السياسات بشكل دائم. وهذا ما يُبرز الحاجة العاجلة إلى إطار حوكمة أقوى يمنع الذكاء الاصطناعي من أن يتحوّل إلى مصدر جديد للثغرات بدلًا من أن يكون أداة حماية.

ما الذي يجب على الشركات فعله؟

  • وضع قواعد واضحة لاستخدام الذكاء الاصطناعي: صياغة سياسات توجيهية لضمان الاستخدام الآمن، مثل استخدام أنظمة الكشف الصوتي كـ PITCH التي ترصد التزييف الصوتي بدقة تصل إلى 88%.
  • تعزيز الدفاعات: اعتماد تقنيات الذكاء الاصطناعي ضمن أنظمة مؤمّنة، ومدعومة بكلمات مرور قوية وأنظمة حماية متقدمة.
  • تدريب الفرق الأمنية: تأهيل الكوادر لفهم التهديدات المدعومة بالذكاء الاصطناعي والتعامل معها بفعالية. وتشير بيانات Darktrace إلى أن 74% من خبراء الأمن السيبراني يعتبرون تهديدات الذكاء الاصطناعي مسألة خطيرة، في حين يتوقع 90% منهم تزايدها خلال الفترة المقبلة.

يعمل الذكاء الاصطناعي على تغيير لعبة الأمن السيبراني. ولكن ما إذا كان يساعد أو يضر يعتمد على كيفية استخدامه. للبقاء في المقدمة، تحتاج الشركات إلى أدوات ذكية وقواعد ذكية وأشخاص أذكياء. لا يتعلق مستقبل السلامة الرقمية بالتكنولوجيا فحسب، بل يتعلق أيضاً بالمسؤولية.

المصدر: وكالة أنباء الإمارات