
يتناول هذا المساق كيفية تقييم نماذج اللغة الكبيرة (LLMs) بدءًا من الطرق الأساسية وصولاً إلى التقنيات المتقدمة باستخدام أدوات Vertex AI مثل Automatic Metrics وAutoSxS. يستعرض المساق كيفية قياس جودة مخرجات نماذج النصوص والصور والصوت، بالإضافة إلى أهمية التقييم البشري في عمليات التحقق والتطوير. يُعد هذا المساق مناسبًا لمديري منتجات الذكاء الاصطناعي، وعلماء البيانات، والمهتمين بالأخلاقيات والسياسات المتعلقة بالذكاء الاصطناعي، والباحثين الأكاديميين لفهم تأثير الذكاء الاصطناعي التوليدي وتحسين أدائه عبر القطاعات المختلفة. يُفضل وجود فهم أساسي في الذكاء الاصطناعي وتعلم الآلة، مع معرفة بأدوات Vertex AI ولكنها ليست ضرورية.
Reza Moradinezhad
AI Educator | Human-Centered Interaction Researcher | Promoting Trustworthy AI
Starweaver
Global Leaders in Professional & Technology Education