العودة إلى الصفحة الرئيسية

الأسئلة والأجوبة

الأسئلة الشائعة

إجابات على الأسئلة الأكثر شيوعًا حول برنامج أمان لشهادة سلامة الذكاء الاصطناعي للأطفال، من السلطة القانونية والحوكمة إلى المنهجية التقنية ومشتريات المدارس.

الحوكمة والسيادة

المجلس يملك معيار الاعتماد وإطار المحاور الـ14 ومعايير التقييم. Base71 تملك المنصة التقنية التي تُنفّذ المعيار. هذا الفصل يُطابق النموذج العالمي للمعايير الحكومية.

فصل ثلاثي واضح. المجلس يُحدّد المتطلبات. Base71 تُشغّل منصة الاختبار بمسارات تدقيق كاملة. المجلس يُصدر قرار الاعتماد النهائي. النموذج مُماثل لعملية علامة CE في الاتحاد الأوروبي.

الصلاحية التقنية

إطار المحاور الـ14 مبني على أبحاث أمنية مُعتمَدة: المحاور 1-4 تتوافق مع COPPA والمادة 8 من GDPR والمرسوم بقانون 26/2025. المحور 5 يُطابق قائمة OWASP LLM العشر الأولى (2025). المحور 6 مبني على أبحاث Thorn المنشورة حول الاستدراج.

مجموعة بيانات معايرة من أكثر من 2,000 استجابة ذكاء اصطناعي مُصنّفة من مراجعين مستقلين. الهدف: أقل من 2% سلبيات خاطئة للسلامة الأساسية وكشف الاستدراج، وأقل من 10% إيجابيات خاطئة. كل شهادة تشمل مراجعة بشرية لـ5% على الأقل من حالات الاختبار. تُنشر المعدلات سنويًا.

خمس قنوات: مراجعة شهرية لأبحاث الأمن، اكتشافات فريق الاختبار الأحمر، برنامج مكافآت مجتمعي (ينطلق في الشهر العاشر)، معلومات استخباراتية من الشركاء مثل Thorn وActiveFence وUK AISI، وتحديثات مدفوعة بالحوادث خلال 48 ساعة.

قطاع التعليم

لا. المعايرة العمرية تُقيّم الاستجابات وفق ست مراحل نمائية. الاختبار يُميّز بين الأسئلة التعليمية والمحتوى الضار. والاعتماد المُتدرّج يُطابق مستوى الصرامة مع درجة المخاطر.

أي تطبيق ذكاء اصطناعي يستخدمه أطفال في الإمارات مشمول، بغض النظر عن مكان تطويره. اختبار الشهادة يتم عبر واجهة برمجة التطبيقات ولا يتطلب وجودًا فعليًا. يُختبر المزودون بالإنجليزية والعربية واللغات الأخرى ذات الصلة. الشهادة المبكرة تُعد ميزة للوصول إلى سوق دول مجلس التعاون.

المجتمع والثقة

شهادات iKeepSafe وPRIVO وkidSAFE تتحقّق من الامتثال لخصوصية البيانات فقط: تدفّقات الموافقة والتوافق مع COPPA. لا تختبر سلوك الذكاء الاصطناعي. قائمة OWASP LLM العشر الأولى وإطار NIST AI RMF يُعالجان أمن الذكاء الاصطناعي العام دون بُعد خاص بالأطفال. قانون الذكاء الاصطناعي الأوروبي يُصنّف الأطفال كفئة ضعيفة لكنه يُفوّض المواصفات التقنية إلى CEN/CENELEC، ولا تزال قيد التطوير. قانون السلامة على الإنترنت البريطاني يفرض التزامات تنظيمية لكنه لم يُصدر مواصفات اختبار. معيار IEEE 2089 يُغطّي مبادئ التصميم المناسب للعمر، ومسودة IEEE P3462 تُعالج منع مواد الاستغلال الجنسي في النماذج التوليدية، ولا يُغطّي أيٌّ منهما سلوك الذكاء الاصطناعي التحاوري مع الأطفال. المعايير الأكاديمية (Safe-Child-LLM وChildSafe) تبقى أوراقاً بحثية محدودة النطاق. قانون LEAD في كاليفورنيا رُفض بالفيتو. لم تُصدر أي حكومة أو هيئة معايير أو جهة اعتماد معياراً تقنياً يُحدّد كيفية اختبار مقاومة الذكاء الاصطناعي للاستدراج، أو منع إيذاء النفس، أو مواجهة الاستغلال العاطفي، أو الصمود أمام حقن الأوامر من طفل.

نظام تقييم بالنجوم على غرار أمازون يُعرض بجانب الشهادة التقنية. يُقيّم الآباء والمعلمون ومديرو المدارس المُوثّقون التطبيقات المعتمدة عبر أربعة أبعاد للسلامة. إذا انخفض تقييم تطبيق عن 3.0 نجوم أو تلقى أكثر من 10 بلاغات سلامة في 30 يومًا، يُرشّح للمراجعة الفورية.