
IBM
اكتشف عالم معالجة اللغات الطبيعية من خلال هذه الدورة العملية التي تركز على نماذج المحولات (Transformers). تعلم كيفية بناء وتدريب نماذج ذكاء اصطناعي متقدمة لتصنيف النصوص وفهم السياق باستخدام أحدث التقنيات.
يهدف هذا المساق إلى تقديم مقدمة شاملة وعملية حول كيفية استخدام نماذج المحولات (Transformers) في تطبيقات معالجة اللغات الطبيعية (NLP)، وهي التقنية الأساسية التي تقوم عليها أحدث تطورات الذكاء الاصطناعي التوليدي. ستكتشف في هذه الدورة كيفية بناء وتدريب النماذج الخاصة بك لأغراض تصنيف النصوص، مع التركيز بشكل خاص على البنى المبنية على التشفير (Encoder-based) مثل نموذج التمثيلات الثنائية الاتجاه من المحولات (BERT). بالإضافة إلى ذلك، سيتعمق المساق في المفاهيم الأساسية التي تجعل هذه النماذج فعالة للغاية، بما في ذلك التشفير الموضعي (Positional Encoding)، وتضمين الكلمات (Word Embeddings)، وآليات الانتباه (Attention Mechanisms). ستتعلم أيضاً عن الانتباه متعدد الرؤوس (Multi-head Attention) والانتباه الذاتي (Self-attention)، وكيفية استخدام النمذجة اللغوية السببية مع نماذج فك التشفير مثل GPT لتوليد النصوص. من خلال الجمع بين الشرح النظري والتطبيق العملي، ستكتسب خبرة مباشرة في استخدام أدوات قياسية في الصناعة مثل PyTorch و Hugging Face لمواجهة تحديات العالم الحقيقي. سواء كنت تسعى لفهم البنية الداخلية لنماذج اللغة الكبيرة أو ترغب في تطبيقها في مشاريع معالجة اللغة الطبيعية مثل الترجمة الآلية وتصنيف النصوص، فإن هذه الدورة ستزودك بالأساس المتين والخبرة العملية اللازمة للتميز في هذا المجال المتطور.
Joseph Santarcangelo
IBM Developer Skills Network
Fateme Akbari
Kang Wang