
تركّز هذه الدورة العملية على إدارة مخاطر نماذج الذكاء الاصطناعي داخل المؤسسات. تبدأ بتصنيف المخاطر الرئيسية مثل التحيز، وانجراف البيانات، وعدم الامتثال التنظيمي، ثم توضح كيفية جعل هذه المخاطر قابلة للقياس من خلال مؤشرات أداء وضوابط حوكمة واضحة. ستتدرّب على ربط المخاطر بإجراءات رقابية مناسبة، وتقييم نتائج التحقق من النماذج وفق معايير مثل SR 11-7 ومبادئ بازل وقانون الاتحاد الأوروبي للذكاء الاصطناعي، مع تحديد فجوات الامتثال واقتراح إجراءات تصحيحية. كما تتعلم كيفية إعداد إطار مبسط لإدارة مخاطر النماذج يتضمن معايير توثيق واضحة، ومسارات تصعيد، وجداول مراجعة دورية. بنهاية الدورة ستكون قادرًا على دعم نشر أنظمة ذكاء اصطناعي بطريقة مسؤولة تعزز الثقة والامتثال.
ansrsource instructors
ansrsource instructors