منوعات
تقرير بروف بوينت: مؤسسات الإمارات في طليعة المعتمِدين للذكاء الاصطناعي، مع نضج متسارع في استراتيجيات الأمن السيبراني
الثلاثاء 28/أبريل/2026 - 02:40 م
طباعة
sada-elarab.com/804859
أعلنت شركة بروف بوينت، المتخصصة في الأمن السيبراني والامتثال، عن إصدار تقريرها العالمي الأول من نوعه بعنوان "مشهد مخاطر الذكاء الاصطناعي والعنصر البشري"، الذي يرصد الفجوة المتسعة بين تسارع تبنّي الذكاء الاصطناعي وجاهزية المؤسسات لتأمينه والتحقيق في مخاطره. وقد شمل هذا الاستطلاع العالمي أكثر من 1,400 متخصص في الأمن السيبراني موزعين من 12 دولة، ويدرس التقرير كيف يعيد التبنّي المتسارع للذكاء الاصطناعي تشكيل بيئات التعاون المؤسسي، ويكشف عن ثغرات هيكلية في ضوابط الأمن السيبراني وآليات الاستجابة للحوادث.
يشهد الذكاء الاصطناعي انتشاراً متسارعاً داخل المؤسسات، حيث أصبح جزءاً فعلياً من مختلف الوظائف، بدءاً من خدمة العملاء ووصولاً إلى المراسلات الداخلية وسير العمل عبر البريد الإلكتروني والتعاون مع أطراف خارجية. وعلى المستوى العالمي، أفادت 87% من المؤسسات بأنها نشرت مساعدين قائمين على الذكاء الاصطناعي بعد المرحلة التجريبية، فيما تعمل 76% منها على اختبار أو نشر أنظمة ذكية مستقلة. غير أنه وعلى الرغم من الاستثمارات الضخمة في أدوات الذكاء الاصطناعي وضوابط الأمن السيبراني، تعجز الكثير من المؤسسات عن التحقق من فاعلية هذه الضوابط؛ إذ أفاد 52% بعدم ثقتهم الكاملة في قدرة ضوابطهم الأمنية على رصد حوادث الذكاء الاصطناعي المخترَق، فيما سبق أن تعرّض نصف هؤلاء لحوادث مؤكدة أو مشتبه بها رغم توافر هذه الضوابط.
علاوة على ذلك، أفادت معظم المؤسسات على مستوى العالم، بأنها ليست مستعدة تماماً للتحقيق في الحوادث المتعلقة بالذكاء الاصطناعي والتي تمتد عبر أنظمة وقنوات متعددة فيما أكد ثلثها فقط امتلاكه القدرة الكاملة على إجراء تحقيق شامل في مثل هذه الحالات.
وفي هذا الصدد، قال ريان كاليمبر، المدير التنفيذي للاستراتيجية لدى بروف بوينت: "تكشف نتائج هذا العام عن اتساع الفجوة بين تبنّي الذكاء الاصطناعي وجاهزية الأمن السيبراني. تعتمد المؤسسات بشكل متزايد على مساعدي الذكاء الاصطناعي والأنظمة المستقلة ضمن سير العمل الأساسي، بينما تظل قدرة العديد منها على التأكد من فعالية الضوابط الأمنية أو التحقيق الكامل في الحوادث التي تمتد عبر قنوات التعاون محدودة. ومع ازدياد اندماج الذكاء الاصطناعي في أساليب العمل، يتعين على قادة الأمن السيبراني إعادة النظر في كيفية حماية التفاعلات الموثوقة بين الأفراد والبيانات وأنظمة الذكاء الاصطناعي".
ومن جانبه قال إميل أبو صالح، نائب الرئيس للأسواق الناشئة لدى بروف بوينت: "تُعد دولة الإمارات من أسرع الأسواق في المنطقة في تبنّي الذكاء الاصطناعي مع تسارع واضح في وتيرة الاعتماد ومع ذلك لم تواكب جاهزية الأمن السيبراني حتى الآن هذا التوسع السريع. نشهد ارتفاعاً ملحوظاً في هجمات التصيد الاحتيالي من حيث الحجم والتعقيد، مدفوعة جزئياً بالتوترات الجيوسياسية التي تساهم في تصاعد الهجمات الموجهة في المنطقة، حيث يستغل المهاجمون بشكل متزايد تقنيات الذكاء الاصطناعي وسلوك الأفراد لزيادة فعالية الهجمات. وقد بدأت العديد من المؤسسات في الدولة في التفاعل بالفعل مع هذه التهديدات في بيئات العمل الحقيقية. في المقابل يتمثل المؤشر الإيجابي في إدراك المؤسسات لهذا الواقع، وتسريع استثماراتها لمعالجة الفجوة. وتتطلب المرحلة المقبلة ضبط الأسس السليمة، من خلال تعزيز الرؤية الأمنية، ، وترسيخ الحوكمة، وتوفير أمن يواكب الاستخدام الفعلي للذكاء الاصطناعي بما في ذلك التعامل مع اتساع نطاق المخاطر المرتبطة بالأفراد التي تستغلها هجمات التصيّد".
ومن أبرز نتائج تقرير بروف بوينت "مشهد مخاطر الذكاء الاصطناعي والعنصر البشري" لعام 2026 في دولة الإمارات:
وتيرة نشر الذكاء الاصطناعي تتقدم على جاهزية الأمن السيبراني: تجاوزت سرعة انتقال الذكاء الاصطناعي إلى بيئات الإنتاج الفعلية وتيرةَ نضج أطر الحوكمة المواكبة لها. ففي الإمارات، أفادت 92% من المؤسسات بأنها نشرت مساعدي الذكاء الاصطناعي خارج مرحلة التجارب، فيما تعمل 80% على تطوير أو نشر أنظمة ذكية مستقلة. في المقابل، ترى 55% من المؤسسات أن جاهزية الأمن السيبراني لا تزال دون مستوى هذا التسارع أو تعاني من تباين في مستوى التطبيق، بينما أفادت 41% بتعرضها لحوادث مؤكدة أو يشتبه في ارتباطها بالذكاء الاصطناعي، ما يشير إلى وجود ثغرات أمنية بالفعل في بيئات التشغيل الفعلية.
قنوات التعاون تمثل السطح الرئيسي للهجمات المرتبطة بالذكاء الاصطناعي: يوسّع الذكاء الاصطناعي نطاق التهديدات، مع قدرة أعلى على الانتشار بسرعة كبيرة والتأثير على سير العمل المترابط. وتُعد تطبيقات SaaS والحوسبة السحابية التابعة لجهات خارجية المسار الأكثر شيوعاً للهجمات بنسبة 58%، كما تشمل المخاطر أيضاً البريد الإلكتروني (52%)، ومنصات التواصل والمراسلة (42%)، والرسائل النصية (41%). وبين المؤسسات التي تعرضت لحوادث مرتبطة بالذكاء الاصطناعي، ترتفع مستويات التعرض عبر جميع القنوات، إذ بلغت 59% في تطبيقات الجهات الخارجية والحوسبة السحابية، و51% في منصات مشاركة الملفات.
الثقة بالضوابط الأمنية تفوق مستوى فاعليتها: رغم اعتماد العديد من المؤسسات لضوابط أمنية خاصة بالذكاء الاصطناعي، إلا أن مستوى الثقة بفعاليتها لا يزال محدوداً. ففي دولة الإمارات، أفادت 57% من المؤسسات بتوفر تغطية أمنية للذكاء الاصطناعي، بينما أقرّت 51% بعدم ثقتها الكاملة بقدرة هذه الضوابط على كشف أي اختراق. كما أفادت 40% من المؤسسات التي تطبق هذه الضوابط بتعرضها بالفعل لحوادث مرتبطة بالذكاء الاصطناعي. وتبرز فجوات واضحة في عدة مجالات، من بينها غياب تقييم المخاطر لسير عمل الذكاء الاصطناعي (48%)، وعدم توفر نماذج لرصد الأنظمة أو المساعدين المخترقين (44%)، إضافة إلى نقص التدريب (41%).
جاهزية التحقيق لا تواكب واقع الحوادث: عند وقوع حوادث مرتبطة بالذكاء الاصطناعي، تواجه العديد من المؤسسات صعوبة في التحقيق فيها بفعالية. ففي دولة الإمارات، أفاد 53% فقط من المشاركين بجاهزيتهم الكاملة للتحقيق في حوادث تتعلق بالذكاء الاصطناعي أو الأنظمة الذكية، بينما أشار 39% إلى صعوبة في ربط التهديدات عبر القنوات المختلفة. ومع امتداد هذه الحوادث عبر البريد الإلكتروني ومنصات التعاون والأنظمة السحابية، تصبح القدرة على إعادة بناء مسار الحادث مرتبطة بوجود رؤية متكاملة عبر البيئات المترابطة، وهو ما تفتقده العديد من المؤسسات حتى الآن.
تعدد الأدوات يشكّل عائقاً هيكلياً: يؤدي تشتّت الحلول الأمنية عبر أنظمة متعددة إلى تعقيد المشهد، ما يحدّ من مستوى الرؤية ويبطئ الاستجابة، خاصة مع انتقال الحوادث بسرعة عالية بين الأنظمة. ففي دولة الإمارات، أفادت 98% من المؤسسات بأن إدارة الأدوات الأمنية المتعددة تمثل تحدياً بدرجة متفاوتة، فيما وصفتها 68% بأنها صعبة أو شديدة التعقيد. وتشمل أبرز التحديات تداخل الأدوات أو تكرارها (45%)، وصعوبة ربط التهديدات (39%)، وبطء إجراءات التحقيق (39%).
بنية الأمن تتحول إلى أولوية استراتيجية مع توسّع استخدام الذكاء الاصطناعي: تتجه المؤسسات في دولة الإمارات إلى إعادة هيكلة بيئاتها الأمنية، حيث تعمل 51% منها على توحيد المورّدين والأدوات، بينما يرى 47% أن المنصات الموحّدة أكثر فاعلية من الحلول المنفصلة. وخلال الاثني عشر شهراً المقبلة، تخطط 65% من المؤسسات لتعزيز ضوابط حماية الذكاء الاصطناعي، و64% لتوسيع نطاق الحماية عبر قنوات التعاون، فيما تتجه 65% نحو اعتماد نهج قائم على منصة موحّدة.
وأضاف كاليمبر: "أدخل الذكاء الاصطناعي مخاطر جديدة، مثل التلاعب بالأوامر، إلا أن أثره الأكبر يتمثل في تضخيم المخاطر القائمة أصلاً. فالتحديات المرتبطة بتشغيل تعليمات غير موثوقة، وسوء التعامل مع البيانات الحساسة، وفقدان السيطرة على بيانات الاعتماد، ليست جديدة، بل تراكمت على مدى سنوات. ما تغيّر هو أن الذكاء الاصطناعي ينفذها بسرعة وحجم غير مسبوقين. وعندما تمنح المؤسسات هذه الأنظمة صلاحية التصرف نيابة عنها، عبر العملاء والشركاء والأنظمة الداخلية، يتسع نطاق تأثير أي خلل بشكل كبير. التعامل مع هذه التحديات يتطلب تطبيق ضوابط صارمة ومجرّبة على ما يتعامل معه الذكاء الاصطناعي، وما ينفذه، والصلاحيات التي يحصل عليها. وإن المؤسسات التي تضع هذه الأسس مبكراً ستكون الأكثر قدرة على التوسع بثقة، بينما تكتفي الأخرى بتوسيع نطاق المخاطر داخل بيئاتها".










