
يبحث أصحاب العمل بنشاط عن مهندسي ذكاء اصطناعي يمتلكون القدرة على إجراء الضبط الدقيق لنماذج المحوّلات (Transformers) لتطبيقات الذكاء الاصطناعي التوليدي. صُممت دورة «إتقان الذكاء الاصطناعي التوليدي: الضبط الدقيق المتقدم للنماذج اللغوية الكبيرة» لتزويد مهندسي الذكاء الاصطناعي وغيرهم من المتخصصين بالمهارات عالية الطلب التي يحتاجها أصحاب العمل. يستخدم مهندسو الذكاء الاصطناعي مهارات الضبط الدقيق المتقدمة للنماذج اللغوية الكبيرة (LLMs) لتخصيص النماذج المُدرَّبة مسبقًا لمهام محددة، بما يضمن الدقة والملاءمة في تطبيقات مثل روبوتات المحادثة، والترجمة، وتوليد المحتوى. خلال هذه الدورة ستستكشف أساسيات ضبط التعليمات (Instruction-Tuning) باستخدام Hugging Face، ونمذجة المكافأة (Reward Modeling)، وكيفية تدريب نموذج مكافأة. كما ستتعرّف على تحسين السياسة القريب (Proximal Policy Optimization - PPO) باستخدام Hugging Face وإعداداته، وعلى فهم النماذج اللغوية الكبيرة بوصفها توزيعات احتمالية. إضافةً إلى ذلك، ستتعمق في التعلم المعزز من التغذية الراجعة البشرية (RLHF) وتطبيقاته العملية، وستتعلّم كيفية استخدام تحسين التفضيل المباشر (Direct Preference Optimization - DPO) عبر دالة التقسيم (Partition Function) ضمن Hugging Face لبناء حل أمثل لمسائل DPO. وستتضمن الرحلة أيضًا إنشاء دالة تقييم (Scoring Function) وتنفيذ ترميز البيانات إلى رموز (Tokenization) لإعداد مجموعات البيانات للتدريب.
Joseph Santarcangelo
PhD., Data Scientist