
تمتلك أنظمة الذكاء الاصطناعي قدرة كبيرة على تحسين المجتمع عبر نطاق واسع من التطبيقات. لكن التحدّي الحقيقي هو تحقيق ذلك بصورة مسؤولة. فقد تؤدي هذه الأنظمة إلى التمييز، وفقدان السيطرة البشرية، وضعف قابلية التفسير والشرح، وغيرها من المعضلات الأخلاقية التي قد تظهر أثناء التصميم أو عند الاستخدام الفعلي. ونظراً للتأثير الكبير الذي يحدثه الذكاء الاصطناعي وتعلّم الآلة اليوم—مثل ChatGPT من OpenAI، أو استخدام نماذج تعلّم الآلة في التشخيصات الطبية—فمن الضروري التأكد من أننا نصمّم هذه الأنظمة ونستخدمها بطريقة تلبّي المعايير الأخلاقية. ويتطلّب ذلك تبنّي موقف استباقي تجاه الأخلاقيات، لا يكتفي بردّ الفعل بعد وقوع المشكلات. في هذه الدورة، ستتعرّف على منهجية «التصميم من أجل القيم» (Delft Design for Values) التي طوّرتها جامعة دلفت للتكنولوجيا. تساعد هذه المنهجية على تحديد القيم الأخلاقية ذات الصلة (مثل العدالة، والشفافية، والمسؤولية، والخصوصية)، وتوفّر أدوات لترجمتها إلى متطلبات تصميم ملموسة يمكن تنفيذها وقياسها ثم اختبارها. كما تركّز الدورة على مواءمة قرارات البرمجة والتصميم مع هذه القيم، بحيث تصبح الأخلاقيات جزءاً من عملية التطوير نفسها، وليس إضافة لاحقة. بنهاية الدورة ستكون قادراً على تحليل المخاطر الأخلاقية المحتملة في تطبيقات الذكاء الاصطناعي، واتخاذ خطوات عملية نحو تصميم أكثر مسؤولية، وتطبيق منهجية واضحة لتحويل المبادئ الأخلاقية إلى قرارات تصميم قابلة للتحقق.
Stefan Buijsman
Dr.
Juan Manuel Durán
Assistant professor in ethics of technology, Delft University of Technology