TrueschoTruescho
كل الدورات
خادم نماذج اللغة المحلية
edX
دورة
مبتدئ
مجاني للتدقيق
شهادة

خادم نماذج اللغة المحلية

Pragmatic AI Labs

تعلّم إعداد خادم GPU على بنيتك، تنزيل نماذج مفتوحة المصدر، وبناء تطبيقات ووكلاء ذكاء اصطناعي باستخدام LLM محليًا.

4 ساعة/أسبوع4 أسبوعالإنجليزية150 متسجل
مجاني للتدقيق

عن الدورة

في هذه الدورة ستغوص في عالم خوادم وحدات معالجة الرسوميات (GPU) وسوقها، ونماذج اللغة المحلية (LLMs) التي يمكن تشغيلها على بنيتك التحتية دون الاعتماد على خدمات سحابية خارجية. سواء كنت عالم بيانات أو مطوّرًا أو مهتمًا بالذكاء الاصطناعي، ستزوّدك الدورة بمهارات عملية تساعدك على الاستفادة من قوة الـ GPU وLLMs لبناء تطبيقات ذكية قابلة للتشغيل محليًا. ستتعرّف أولًا على كيفية تأثير سوق الـ GPU وLLM في الطلب والتكلفة وتوفّر العتاد، وما الذي يعنيه ذلك عند التخطيط لبنية تشغيل النماذج. بعد ذلك ستنتقل إلى الجانب التطبيقي عبر إعداد بنية GPU مناسبة، ثم إنشاء آلة افتراضية (Virtual Machine) مجهّزة ببطاقة GPU لتكون أساس تشغيل النماذج. بعد تجهيز البيئة، ستتعلّم كيفية إعداد وتشغيل نماذج لغة محلية باستخدام LM Studio، وكيفية الحصول على نماذج مفتوحة المصدر وتنزيلها وإدارتها. ثم ستقوم بتشغيل خادم LLM محلي (Local LLM Server) لتقديم النموذج كخدمة يمكن استدعاؤها برمجيًا. وأخيرًا ستستخدم هذا الخادم لتغذية تطبيق Python، كما ستتعرّف على تصميم الحلول باستخدام الوكلاء (Agents) لبناء تدفقات عمل أكثر ذكاءً وقدرة على تنفيذ المهام. بنهاية الدورة ستكون قادرًا على إعداد خادم GPU محلي وتشغيل نماذج مفتوحة المصدر وبناء تطبيقات تعتمد عليها بشكل عملي.

ماذا ستتعلم

  • فهم كيف يؤثر سوق وحدات GPU ونماذج LLM في الطلب والتكلفة وتوفّر الموارد
  • إعداد آلة افتراضية مجهّزة بوحدة معالجة رسومية GPU
  • إعداد نماذج لغة محلية باستخدام LM Studio
  • الحصول على نماذج مفتوحة المصدر وتنزيلها
  • تشغيل خادم LLM محلي (Local LLM Server)
  • استخدام خادم LLM لتشغيل تطبيق Python

المدرسون

D

Derek Wales

Data Scientist

المواضيع

خوادم GPU والبنية التحتية
نماذج اللغة المحلية والوكلاء

معلومات الدورة

المنصةedX
المستوىمبتدئ
طريقة التعلمغير محدد
شهادةمتاحة
السعرمجاني للتدقيق

ابدأ التعلم الآن