TrueschoTruescho
كل الدورات
إتقان الذكاء الاصطناعي التوليدي: الضبط الدقيق المتقدم للنماذج اللغوية الكبيرة
edX
دورة
متوسط
مجاني للتدقيق
شهادة

إتقان الذكاء الاصطناعي التوليدي: الضبط الدقيق المتقدم للنماذج اللغوية الكبيرة

IBM

اكتسب مهارات متقدمة لضبط LLMs باستخدام Hugging Face وPPO وDPO وRLHF لبناء حلول جاهزة لسوق العمل.

3 ساعة/أسبوع2 أسبوعالإنجليزية825 متسجل
مجاني للتدقيق

عن الدورة

يبحث أصحاب العمل بنشاط عن مهندسي ذكاء اصطناعي يمتلكون القدرة على إجراء الضبط الدقيق لنماذج المحوّلات (Transformers) لتطبيقات الذكاء الاصطناعي التوليدي. صُممت دورة «إتقان الذكاء الاصطناعي التوليدي: الضبط الدقيق المتقدم للنماذج اللغوية الكبيرة» لتزويد مهندسي الذكاء الاصطناعي وغيرهم من المتخصصين بالمهارات عالية الطلب التي يحتاجها أصحاب العمل. يستخدم مهندسو الذكاء الاصطناعي مهارات الضبط الدقيق المتقدمة للنماذج اللغوية الكبيرة (LLMs) لتخصيص النماذج المُدرَّبة مسبقًا لمهام محددة، بما يضمن الدقة والملاءمة في تطبيقات مثل روبوتات المحادثة، والترجمة، وتوليد المحتوى. خلال هذه الدورة ستستكشف أساسيات ضبط التعليمات (Instruction-Tuning) باستخدام Hugging Face، ونمذجة المكافأة (Reward Modeling)، وكيفية تدريب نموذج مكافأة. كما ستتعرّف على تحسين السياسة القريب (Proximal Policy Optimization - PPO) باستخدام Hugging Face وإعداداته، وعلى فهم النماذج اللغوية الكبيرة بوصفها توزيعات احتمالية. إضافةً إلى ذلك، ستتعمق في التعلم المعزز من التغذية الراجعة البشرية (RLHF) وتطبيقاته العملية، وستتعلّم كيفية استخدام تحسين التفضيل المباشر (Direct Preference Optimization - DPO) عبر دالة التقسيم (Partition Function) ضمن Hugging Face لبناء حل أمثل لمسائل DPO. وستتضمن الرحلة أيضًا إنشاء دالة تقييم (Scoring Function) وتنفيذ ترميز البيانات إلى رموز (Tokenization) لإعداد مجموعات البيانات للتدريب.

ماذا ستتعلم

  • اكتساب مهارات متقدمة وجاهزة لسوق العمل في الضبط الدقيق للنماذج اللغوية الكبيرة خلال أسبوعين فقط
  • تنفيذ ضبط التعليمات ونمذجة المكافأة باستخدام Hugging Face
  • استخدام النماذج اللغوية الكبيرة كسياسات (Policies) وتطبيق التعلم المعزز من التغذية الراجعة البشرية (RLHF)
  • تطبيق تحسين التفضيل المباشر (DPO) باستخدام دالة التقسيم وHugging Face وبناء حل أمثل لمسألة DPO
  • استخدام تحسين السياسة القريب (PPO) مع Hugging Face لإنشاء دالة تقييم وتنفيذ ترميز مجموعات البيانات إلى رموز

المتطلبات المسبقة

  • معرفة أساسية بالنماذج اللغوية الكبيرة (LLMs) وضبط التعليمات والتعلم المعزز
  • إلمام بمفاهيم تعلم الآلة والشبكات العصبية

المدرسون

J

Joseph Santarcangelo

PhD., Data Scientist

المواضيع

الضبط الدقيق للنماذج اللغوية الكبيرة
التعلم المعزز من التغذية الراجعة البشرية

معلومات الدورة

المنصةedX
المستوىمتوسط
طريقة التعلمغير محدد
شهادةمتاحة
السعرمجاني للتدقيق

ابدأ التعلم الآن