
أدى القلق المتزايد بشأن الآثار الضارة لخوارزميات تعلّم الآلة ونماذج الذكاء الاصطناعي (مثل التحيّز وغيره) إلى تسليط اهتمام أكبر على أساسيات أخلاقيات البيانات. تظهر بشكل منتظم قصص إخبارية عن خوارزميات ائتمان تميّز ضد النساء، وخوارزميات طبية تميّز ضد الأمريكيين من أصول أفريقية، وخوارزميات توظيف تبني قراراتها على النوع الاجتماعي، وغيرها من الأمثلة. في معظم الحالات، لم يكن لدى من طوّروا هذه الخوارزميات وعمليات البيانات ونشروها أي نية لإحداث ضرر، ولم يكونوا على دراية بالأثر السلبي الذي قد ينتج عن عملهم. لذلك تركز هذه الدورة في أخلاقيات علم البيانات—والموجهة لكل من الممارسين والمديرين—على تقديم إرشادات وأدوات عملية تساعدك على بناء نماذج أفضل وتجنّب هذه المشكلات. تقدّم الدورة إطار عمل يمكن لعلماء البيانات استخدامه لتطوير مشاريعهم بطريقة أكثر مسؤولية، كما تتضمن عملية تدقيق (Audit) تساعد على فحص النماذج وعمليات البيانات لاكتشاف مصادر التحيّز أو الأذى غير المقصود قبل الإطلاق وبعده. ستتعلم كيف تفكر بشكل منهجي في المخاطر الأخلاقية، ولماذا تُعد قابلية تفسير النموذج عنصرًا محوريًا للحد من الضرر، وكيفية الموازنة بين أداء النموذج وشفافيته. كما تساعدك الدورة على اتخاذ قرارات تصميم ونشر أكثر وعيًا، بما يرفع جودة النماذج ويعزز الثقة في نتائجها داخل المؤسسات ومع المستخدمين.
Peter Bruce
Chief Learning Officer
Grant Fleming
Senior Data Scientist
Veronica Carlan
Data Scientist
Kuber Deokar
Lead - Data Science