
يُعيد الذكاء الاصطناعي (AI) تشكيل الحياة اليومية في مجالات متعددة، من الرعاية الصحية والتعليم إلى الأعمال والصناعة. تساعد أنظمة الذكاء الاصطناعي المختصين على تشخيص الأمراض، وتخصيص التعلم، وأتمتة المهام الإدارية، وتحسين العمليات الصناعية. فوائد هذه الأنظمة واضحة: كفاءة أعلى، وقرارات أفضل، وتواصل شديد التخصيص. لكن في المقابل، يجلب الذكاء الاصطناعي مخاطر حقيقية. فقد تؤدي بيانات التدريب المتحيزة إلى التمييز، وغالبًا ما تفتقر الأنظمة المؤتمتة إلى الشفافية، كما يمكن استغلال الثغرات الأمنية. ويبرز سؤال محوري: من المسؤول عندما يقدم نظام ذكاء اصطناعي قرارًا خاطئًا؟ ومع ازدياد اندماج الذكاء الاصطناعي في مجتمعاتنا، تصبح القواعد الواضحة ضرورية لمنع الضرر، وحماية حقوق الإنسان، وضمان أن يكون الابتكار مسؤولًا وشاملًا. يقدّم هذا المقرر القصير (4 وحدات) مدخلًا عمليًا لفهم الأسس التقنية للذكاء الاصطناعي والتعلم الآلي والتعلم العميق، وكيف تُستخدم البيانات داخل التطبيقات المعتمدة على الذكاء الاصطناعي، إلى جانب استكشاف الأطر القانونية والمبادرات التنظيمية التي تشكّل هذا المجال. كما يدعوك المقرر للتفكير في الأبعاد الأخلاقية للذكاء الاصطناعي، والتعرّف إلى المبادئ الأساسية للذكاء الاصطناعي المتمحور حول الإنسان، بما يساعدك على قراءة المشهد التنظيمي الحديث—بما في ذلك الأطر الرئيسية مثل «قانون الذكاء الاصطناعي»—وفهم كيفية موازنة الابتكار مع السلامة والإنصاف والمساءلة.
Leen Sevens
Educational Technologist
David Frost Cruz
Project lead