
تقدّم هذه الدورة مدخلاً عملياً إلى أهم موضوعات خصوصية الذكاء الاصطناعي وسلامته، مع التركيز على ما يحتاجه المطوّرون عند بناء حلول تعتمد على النماذج والبيانات. ستتعرّف على المفاهيم الأساسية التي تشرح ما المقصود بخصوصية الذكاء الاصطناعي وما المقصود بسلامته، ولماذا تُعد هذه الجوانب ضرورية لتطوير أنظمة موثوقة ومسؤولة. تستعرض الدورة أساليب عملية وأدوات تساعدك على تطبيق الممارسات الموصى بها لخصوصية الذكاء الاصطناعي على مستوى البيانات والنماذج. ستتعلّم كيف يمكن التعامل مع مخاطر الخصوصية المرتبطة بجمع البيانات ومعالجتها واستخدامها، وكيفية التفكير في حماية البيانات الحساسة وتقليل احتمالات تسريب المعلومات أو إعادة التعرف على الأفراد. كما تتناول الدورة طرقاً تُستخدم لمعالجة قضايا الخصوصية داخل النماذج نفسها، بما في ذلك الاعتبارات المرتبطة بما قد يتعلمه النموذج أو يكشفه عند الاستخدام. إلى جانب ذلك، تركّز الدورة على سلامة الذكاء الاصطناعي من منظور التنفيذ: ما الاعتبارات الأساسية التي ينبغي مراعاتها عند تصميم ضوابط السلامة، وكيفية اختيار تقنيات مناسبة للحد من السلوكيات غير المرغوبة أو المخرجات الضارة. ويتم ذلك من خلال الاستفادة من منتجات Google Cloud وأدوات مفتوحة المصدر لتطبيق هذه الممارسات بشكل قابل للتنفيذ ضمن سير عمل التطوير. بنهاية الدورة ستكون لديك صورة أوضح عن كيفية دمج الخصوصية والسلامة في دورة حياة تطوير حلول الذكاء الاصطناعي، واختيار الأساليب والأدوات المناسبة لبناء تطبيقات أكثر أماناً ومسؤولية.