
أدى الانتشار الواسع للذكاء الاصطناعي إلى بروز حالات كثيرة وموثّقة من التحيّز والظلم والتمييز. وقد زاد القلق من الآثار الضارة لخوارزميات التعلم الآلي ونماذج الذكاء الاصطناعي المعتمدة على البيانات الضخمة (بما في ذلك التحيّز وغيره) من الاهتمام بأساسيات أخلاقيات البيانات. تظهر في الأخبار بشكل منتظم قصص عن خوارزميات ائتمان تميّز ضد النساء، وخوارزميات طبية تميّز ضد الأمريكيين من أصول أفريقية، وخوارزميات توظيف تبني قراراتها على النوع الاجتماعي، وغيرها. وفي معظم هذه الحالات، لم يكن لدى علماء البيانات الذين طوّروا ونشروا هذه الخوارزميات وعمليات معالجة البيانات أي نية لإحداث ضرر، كما لم يكونوا على دراية بالأثر السلبي الذي قد يترتب على عملهم. تقدّم هذه الدورة، وهي الدورة الثانية ضمن برنامج أخلاقيات علم البيانات الموجّه للممارسين والمديرين على حد سواء، إرشادات وأدوات عملية لبناء نماذج أفضل، وإجراء تحليلات بيانات أكثر مسؤولية، وتجنّب المشكلات الأخلاقية الشائعة. ستركّز الدورة على فهم تأثير المتغيرات في النماذج “الصندوق الأسود” باستخدام أساليب قابلية التفسير، وقياس التحيّز وعدم الإنصاف عبر مؤشرات أداء مناسبة، والتعرّف إلى القضايا الأخلاقية المحتملة عند التعامل مع بيانات الصور والنصوص وكيفية معالجتها. كما ستتعلّم كيفية إجراء تدقيق (Audit) لمشروع علم بيانات من منظور أخلاقي بهدف تحديد الأضرار المحتملة ومصادر التحيّز، واقتراح أساليب للتخفيف من التحيّز أو تقليل الضرر قبل نشر النماذج أو اعتمادها في اتخاذ القرار.
Peter Bruce
Chief Learning Officer
Grant Fleming
Senior Data Scientist
Kuber Deokar
Lead - Data Science
Janet Dobbins
Director, Training Business Development