
تقدّم هذه الدورة مدخلاً عملياً إلى مفاهيم قابلية التفسير والشفافية في الذكاء الاصطناعي، مع التركيز على ما يحتاجه المطورون والمهندسون لفهم سلوك النماذج وشرح مخرجاتها بشكل أوضح. تتناول الدورة معنى «قابلية التفسير» وكيف تختلف عن «الشفافية»، ولماذا تُعدّان عنصرين أساسيين عند بناء حلول ذكاء اصطناعي مسؤولة يمكن الوثوق بها. كما تشرح أهمية الشفافية للمطورين والمهندسين عند تصميم الأنظمة، واختبارها، ومراقبتها، والتواصل بشأنها مع أصحاب المصلحة، خاصة عندما تؤثر قرارات النموذج على المستخدمين أو الأعمال. وتستعرض الدورة طرقاً وأدوات وتقنيات عملية تساعد على تحقيق قابلية التفسير والشفافية على مستويين: مستوى البيانات (مثل فهم مصادر البيانات وخصائصها وما قد تحمله من تحيزات أو فجوات) ومستوى النماذج (مثل تفسير العوامل التي تؤثر في التنبؤات وكيفية تتبع أسباب النتائج). الهدف هو تمكينك من تطبيق ممارسات واضحة تساعد على تفسير سلوك النموذج، وتحسين إمكانية التدقيق، ودعم اتخاذ قرارات تطوير أكثر مسؤولية. بنهاية الدورة ستكون قادراً على تحديد المفاهيم الأساسية، وفهم قيمتها في دورة حياة تطوير حلول الذكاء الاصطناعي، والتعرّف على أبرز الأدوات والتقنيات المستخدمة لتحقيقها في سياقات عملية.