TrueschoTruescho
كل الدورات
تقييم وتحسين أداء نماذج اللغة الكبيرة
Coursera
دورة
غير محدد

تقييم وتحسين أداء نماذج اللغة الكبيرة

Coursera

دورة متوسطة تعلّم كيفية تقييم أداء نماذج اللغة الكبيرة (LLM) وتحسينها باستخدام اختبارات موضوعية واستراتيجيات مبنية على البيانات.

غير محدد3 أسبوعالإنجليزية

عن الدورة

تسلط هذه الدورة الضوء على كيفية تقييم وتحسين أداء نماذج اللغة الكبيرة المستخدمة في تطبيقات الذكاء الاصطناعي الحديثة. تتناول الدورة كيفية مقارنة النماذج الجديدة مثل GPT-4 مع الإصدارات السابقة بطريقة علمية، مستخدمة مقاييس أداء دقيقة وخوارزميات اختبار أ/ب لوجود دلالة إحصائية قوية. كما تستعرض كيفية إثبات جدوى الترقية للنماذج الأعلى تكلفة وجدواها من خلال بيانات موضوعية تعزز الثقة لدى أصحاب المصلحة. توفّر الدورة الأدوات والمهارات اللازمة للقيادة الفعالة في فرق الذكاء الاصطناعي وضمان اتخاذ قرارات قائمة على أدلة واضحة لتحسين جودة النماذج اللغوية.

ماذا ستتعلم

  • تقييم نماذج اللغة الكبيرة باستخدام مقاييس دقيقة مثل BLEU وROUGE
  • إجراء اختبارات أ/ب للتأكد من دلالة النتائج إحصائياً
  • تحسين أداء النماذج بالاعتماد على استراتيجيات قائمة على البيانات

المتطلبات المسبقة

  • مألوف بالمفاهيم الأساسية للنماذج اللغوية
  • الاستعداد للتطبيق العملي من خلال تمارين وحالات دراسية

المدرسون

L

LearningMate

المواضيع

تعلم الآلة
علم البيانات
تصميم المنتج
علوم الحاسوب
التحليل الإحصائي
مؤشرات الأعمال
تقييم النماذج
هندسة العبارات الاستفهامية

معلومات الدورة

المنصةCoursera
المستوىغير محدد
طريقة التعلمغير محدد
السعرمجاني

المهارات

تعلم الآلة
علم البيانات
تصميم المنتج
علوم الحاسوب
التحليل الإحصائي
مؤشرات الأعمال
تقييم النماذج
هندسة العبارات الاستفهامية
Performance Metric
Test Script Development

ابدأ التعلم الآن