انتقل إلى المحتوى الرئيسي

نموذج الحوكمة السباعي للذكاء الاصطناعي™

إطار منظم وقابل للقياس ومتوافق دولياً لتبني الذكاء الاصطناعي بمسؤولية

يوفر نموذج الحوكمة السباعي للذكاء الاصطناعي™ إطاراً عملياً للمؤسسات لتبني الذكاء الاصطناعي بمسؤولية. فهو ليس ورقة سياسات نظرية، بل منهجية استشارية وتقييمية تشغيلية مصممة للاستخدام في مجالس الإدارة وفرق المشاريع والنقاشات التنظيمية.

تم تطوير النموذج بواسطة سعيد سليمان العزري بالاستناد إلى 35 عاماً من الخبرة في هندسة الحاسوب والأمن السيبراني واستراتيجية الذكاء الاصطناعي وحوكمة المؤسسات — بما في ذلك تأسيس أول مكتب لأمن المعلومات والمعايير في ديوان البلاط السلطاني وبناء عدة منصات مدعومة بالذكاء الاصطناعي. كما تم مواءمته على مستوى الأبعاد الفرعية مع ISO/IEC 42001 وNIST AI RMF 1.0 وقانون الذكاء الاصطناعي الأوروبي وقانون حماية البيانات الشخصية العُماني وسياسة MTCIT العامة لعام 2025 والاستراتيجية الوطنية العُمانية للذكاء الاصطناعي 2025–2030.

الركائز السبع

الركيزة 1الاستراتيجية

ضمان أن كل مبادرة ذكاء اصطناعي ترتكز على مشكلة أعمال واضحة، ومتوافقة مع استراتيجية المؤسسة وأولويات عُمان الوطنية، وتُدار عبر نتائج قابلة للقياس تبرر استمرار الاستثمار.

محاور التقييم الرئيسية:

رؤية الذكاء الاصطناعي والمواءمة الاستراتيجية · تحديد حالات الاستخدام وترتيب أولوياتها · خارطة الطريق وحوكمة الميزانية · مقاييس النجاح وقياس القيمة

الركيزة 2المساءلة

إرساء ملكية واضحة وصلاحيات قرار ومسارات تصعيد وآليات رقابة بما يضمن إمكانية تتبع كل قرار متأثر بالذكاء الاصطناعي إلى إنسان مسؤول، وتشغيل كل نظام ضمن هيكل حوكمة محدد.

محاور التقييم الرئيسية:

الملكية التنفيذية وهيئة الحوكمة · إطار سياسات الذكاء الاصطناعي · الأدوار والمسؤوليات وصلاحيات القرار · التصعيد والتجاوز والمراجعة البشرية

الركيزة 3الذكاء

ضمان استخدام الذكاء الاصطناعي لتعزيز الحكم البشري والإنتاجية وجودة الخدمة — لا كبديل صندوق أسود للقيادة — وأن تكون قابلية التفسير والإشراف البشري متناسبين مع مستوى المخاطر.

محاور التقييم الرئيسية:

تصنيف القرارات (مساندة مقابل أتمتة) · متطلبات قابلية التفسير · التحقق من المخرجات وضمان الجودة · كفاءة الموظفين في تفسير الذكاء الاصطناعي

الركيزة 4النشر

تصميم تنفيذ آمن ومتدرج وقابل للقياس عبر المراحل التجريبية والإنتاج والتوسع — مع معايير إطلاق ومعايير خروج وخطط رجوع وحوكمة للموردين.

محاور التقييم الرئيسية:

منهجية البدء بالتجارب · معايير الإطلاق والخروج · مراقبة الإنتاج وتتبع الأداء · الرجوع والتعليق والإيقاف · حوكمة مزودي الذكاء الاصطناعي والجهات الثالثة

الركيزة 5البيانات والأخلاقيات

حماية الخصوصية والعدالة والموافقة والثقة طوال دورة حياة البيانات ودورة حياة النماذج — بما يضمن تدريب واختبار وتشغيل أنظمة الذكاء الاصطناعي على بيانات قانونية وتمثيلية ومصدرها أخلاقي.

محاور التقييم الرئيسية:

الأساس القانوني وإدارة الموافقة · جودة البيانات وتمثيليتها ومصدرها · كشف التحيز والتخفيف منه · تقييم أثر الذكاء الاصطناعي · الاحتفاظ والحذف ودورة حياة البيانات

الركيزة 6البنية التحتية والأمن

ضمان أن الأنظمة وضوابط الوصول والتكاملات والموردين الداعمين للذكاء الاصطناعي آمنة ومرنة ومتوافقة — مع التعامل مع تهديدات الذكاء الاصطناعي مثل حقن الأوامر وتسرب البيانات والهجمات المضادة بنفس صرامة تهديدات الأمن السيبراني التقليدية.

محاور التقييم الرئيسية:

حصر واعتماد أنظمة الذكاء الاصطناعي · ضوابط الوصول وإدارة الهوية · التخفيف من تهديدات الذكاء الاصطناعي الخاصة · مرونة البنية التحتية واستمرارية الأعمال · ممارسات التطوير الآمن والتكامل

الركيزة 7المواهب والمخاطر

بناء القدرات والثقافة وبرامج التدريب وضوابط مخاطر المؤسسة اللازمة لتبني مستدام طويل المدى للذكاء الاصطناعي — بما يضمن تطور الأشخاص وأنظمة المخاطر بنفس وتيرة طموحات الذكاء الاصطناعي.

محاور التقييم الرئيسية:

تنمية المهارات والكفاءات في الذكاء الاصطناعي · الثقافة وإدارة التغيير · دمج المخاطر المؤسسية · إدارة الحوادث والتعلم · التحسين المستمر

كيف يتم قياس النضج

يتم تقييم كل مؤسسة عبر الركائز السبع جميعها باستخدام معيار تسجيل موحد من 1 إلى 5 مع مؤشرات أدلة واضحة لكل مستوى. وتُجمع درجات الركائز في درجة نضج مركبة تضع المؤسسة ضمن مسار نضج مكون من خمسة مستويات.

المستوىنطاق الدرجةالاسمالوصف
11.0 – 1.4عشوائيلا توجد حوكمة رسمية؛ تجارب معزولة. اهتمام موجود لكن دون تنظيم.
21.5 – 2.4ناشئبعض الوعي وضوابط غير رسمية. اهتمام موجود لكن بصورة متقطعة.
32.5 – 3.4معرّفسياسات وأدوار ومعايير موثقة. جاهزية لتجارب منضبطة بالحوكمة.
43.5 – 4.4مُدارالمراقبة والمراجعة والتحسين مفعلة. تشغيل عمليات نشر منضبطة.
54.5 – 5.0مُحسّنالحوكمة مدمجة في العمليات والثقافة. توسع بثقة.

يمكن تعديل أوزان التقييم حسب القطاع — فالرعاية الصحية والخدمات المالية والحكومة والتعليم والطاقة والتجزئة لكل منها ملفات أوزان موصى بها تعكس بيئاتها التنظيمية ومستويات المخاطر الخاصة بها.

المواءمة الدولية والوطنية

تمت مواءمة النموذج على مستوى الأبعاد الفرعية مع معايير ولوائح مرجعية موثوقة، مما يضمن أن المؤسسات التي تستخدم الإطار تبني في الوقت نفسه جاهزية امتثال عبر التزامات متعددة.

ISO/IEC 42001:2023

المعيار العالمي لنظام إدارة الذكاء الاصطناعي (قابل للاعتماد)

مواءمة جميع الركائز السبع مع البنود ذات الصلة وضوابط الملحق A

NIST AI RMF 1.0

إطار إدارة مخاطر الذكاء الاصطناعي الوطني الأمريكي

مواءمة جميع الركائز السبع مع وظائف Govern وMap وMeasure وManage

قانون الذكاء الاصطناعي الأوروبي

تنظيم أوروبي قائم على المخاطر للذكاء الاصطناعي

تصنيف المخاطر ومتطلبات الأنظمة عالية المخاطر مواءمة عبر الركائز 2–7

قانون حماية البيانات الشخصية العُماني (RD 6/2022)

قانون حماية البيانات الشخصية في عُمان

معالجة البيانات والموافقة وحقوق أصحاب البيانات مواءمة مع الركيزتين 5–6

السياسة العامة لـ MTCIT لعام 2025

الاستخدام الآمن والأخلاقي للذكاء الاصطناعي في عُمان

الذكاء الاصطناعي المتمحور حول الإنسان والمساءلة والتخفيف من التحيز مواءمة عبر جميع الركائز

الاستراتيجية الوطنية للذكاء الاصطناعي 2025–2030

مستهدفات عُمان الوطنية لتبني الذكاء الاصطناعي

مستهدفات المواهب والتحول والإطار الأخلاقي مواءمة مع الركيزتين 1 و7

هل أنت مستعد لتقييم نضج حوكمة الذكاء الاصطناعي في مؤسستك؟

اطلب جلسة استكشافية