انتقل إلى المحتوى الرئيسي
الركائز السبع — البيانات والأخلاقيات
مشاركة

أخلاقيات الذكاء الاصطناعي ليست جدلاً فلسفياً. بل هي متطلب تشغيلي.

٠٤ مايو ٢٠٢٦ · Engineer Said Sulaiman Al Azri

غالباً ما يتعطل الحوار حول أخلاقيات الذكاء الاصطناعي في عُمان في التجريد. تعترف المؤسسات بأن الذكاء الاصطناعي يجب أن يكون عادلاً وشفافاً ومسؤولاً. لكن عندما يُطلب منها إظهار كيف تُطبق هذه المبادئ — في السياسات، في الكود، في سير عمل صنع القرار — لا تستطيع معظمها الإشارة إلى أي شيء ملموس.

هذا ليس انتقاداً للنية. بل هو انعكاس لحيث تقف معظم المؤسسات: تعترف بأهمية الذكاء الاصطناعي الأخلاقي لكنها لم تترجم المبادئ بعد إلى ضوابط تشغيلية.

مبادئ بلا إجراءات

في مؤسسة نموذجية، توجد أخلاقيات الذكاء الاصطناعي كبيان على موقع إلكتروني، أو شريحة في عرض أمام مجلس إدارة، أو بند في عقد مورد. لكن أنظمة الذكاء الاصطناعي نفسها — تلك التي تتخذ قرارات حول الائتمان والأهلية والتسعير والتوظيف أو المخاطر — تعمل دون اختبار تحيز، ودون متطلبات قابلية التفسير، ودون مقاييس عدالة، ودون عملية موثقة لأفراد لتحدي القرارات الآلية.

هذا ما يسميه نموذج الحوكمة السباعي للذكاء الاصطناعي بحالة "المستوى 1 — عشوائي" في الركيزة الخامسة (البيانات والأخلاقيات): الوعي موجود، لكن التشغيلية لا توجد.

كيف تبدو أخلاقيات الذكاء الاصطناعي التشغيلية

تؤسس ممارسة أخلاقية ناضجة للذكاء الاصطناعي أربع قدرات تشغيلية. أولاً، الامتثال لخصوصية البيانات بالتصميم — تُبنى أنظمة الذكاء الاصطناعي مع تدني البيانات وتحديد الغرض وإدارة الموافقة وحقوق أصحاب البيانات مدمجة من مرحلة البنية، لا مضافة لاحقاً بعد النشر. ثانياً، كشف التحيز ومعالجته — يخضع كل نموذج لاختبار العدالة قبل النشر، مع تقييمات موثقة لكيفية تأثير السمات المحمية (الجنس، الجنسية، العمر، حالة الإعاقة) على النتائج، مع مراقبة مستمرة للتحيز الناشئ. ثالثاً، الشفافية وقابلية التفسير — لكل قرار يتخذه الذكاء الاصطناعي ويؤثر على فرد، تستطيع المؤسسة إنتاج تفسير ذي معنى لكيفية التوصل إلى القرار، وما البيانات المستخدمة، وما العوامل الأكثر تأثيراً. ورابعاً، آلية التصحيح — عملية موثقة وسهلة الوصول يستطيع الأفراد من خلالها تحدي قرار يتخذه الذكاء الاصطناعي ومراجعته من قبل بشري يملك سلطة التجاوز.

البعد الوطني

يتجه البيئة التنظيمية في عُمان بحزم نحو متطلبات أخلاقيات تشغيلية. يمنح قانون حماية البيانات الشخصية أصحاب البيانات الحق في الاعتراض على صنع القرار الآلي وطلب التدخل البشري. تتطلب السياسة العامة لوزارة النقل والاتصالات وتقنية المعلومات لعام 2025 الشفافية والعدالة والمساءلة في أنظمة الذكاء الاصطناعي المستخدمة من قبل الجهات الحكومية وفي الخدمات الموجهة للجمهور. المؤسسات التي تعامل الأخلاقيات كتطلع طوعي لا التزام امتثالي ستجد نفسها معرضة مع نضج آليات التنفيذ. دولياً، يصنف قانون الذكاء الاصطناعي الأوروبي — الذي يؤثر على أي مؤسسة أنظمة ذكاء اصطناعيها تلمس مواطنين أوروبيين أو أسواقاً — بعض تطبيقات الذكاء الاصطناعي على أنها عالية المخاطر ويلزم باختبار التحيز وتوثيق الشفافية والإشراف البشري.

ثمن التأخير

تواجه المؤسسات التي تفتقر إلى أخلاقيات ذكاء اصطناعي تشغيلية ثلاثة مخاطر متقاربة. المسؤولية القانونية: بموجب قانون حماية البيانات الشخصية، الفشل في توفير الشفافية حول القرارات الآلية أو تقديم آلية للمراجعة البشرية هو فجوة امتثال، لا مجرد نقص في أفضل الممارسات. التمييز والضرر: أنظمة الذكاء الاصطناعي التي لم تُختبر للتحيز يمكن — وقد — تنتج نتائج تمييزية، لا سيما ضد الفئات الممثلة تمثيلاً ناقصاً في بيانات التدريب. وتآكل الثقة: في سوق يكون فيها الثقة الرقمية أصلاً تنافسياً، المؤسسات التي لا تستطيع تفسير كيفية اتخاذ أنظمة ذكاء اصطناعيها للقرارات ستفقد المصداقية مع العملاء والجهات التنظيمية والشركاء.

توجد الركيزة الخامسة من نموذج الحوكمة السباعي للذكاء الاصطناعي لأن الأخلاقيات بلا عمليات تبقى تطلعاً، والعمليات بلا أخلاقيات تبقى مخاطرة. الأربع ركائز الأولى تبني هيكل حوكمة الذكاء الاصطناعي. هذه الركيزة تضمن أن الهيكل يخدم الناس بعدلاً.


هذا المقال جزء من سلسلة تستكشف كل ركيزة من نموذج الحوكمة السباعي للذكاء الاصطناعي™. التالي: الركيزة السادسة — البنية التحتية والأمن.

قيّم نضج حوكمة الذكاء الاصطناعي في مؤسستك

يوفر نموذج الحوكمة السباعي للذكاء الاصطناعي™ تقييماً منظماً وقابلاً للقياس. ابدأ بجلسة استكشافية مجانية.

اطلب جلسة استكشافية