
في هذه الدورة ستغوص في عالم خوادم وحدات معالجة الرسوميات (GPU) وسوقها، ونماذج اللغة المحلية (LLMs) التي يمكن تشغيلها على بنيتك التحتية دون الاعتماد على خدمات سحابية خارجية. سواء كنت عالم بيانات أو مطوّرًا أو مهتمًا بالذكاء الاصطناعي، ستزوّدك الدورة بمهارات عملية تساعدك على الاستفادة من قوة الـ GPU وLLMs لبناء تطبيقات ذكية قابلة للتشغيل محليًا. ستتعرّف أولًا على كيفية تأثير سوق الـ GPU وLLM في الطلب والتكلفة وتوفّر العتاد، وما الذي يعنيه ذلك عند التخطيط لبنية تشغيل النماذج. بعد ذلك ستنتقل إلى الجانب التطبيقي عبر إعداد بنية GPU مناسبة، ثم إنشاء آلة افتراضية (Virtual Machine) مجهّزة ببطاقة GPU لتكون أساس تشغيل النماذج. بعد تجهيز البيئة، ستتعلّم كيفية إعداد وتشغيل نماذج لغة محلية باستخدام LM Studio، وكيفية الحصول على نماذج مفتوحة المصدر وتنزيلها وإدارتها. ثم ستقوم بتشغيل خادم LLM محلي (Local LLM Server) لتقديم النموذج كخدمة يمكن استدعاؤها برمجيًا. وأخيرًا ستستخدم هذا الخادم لتغذية تطبيق Python، كما ستتعرّف على تصميم الحلول باستخدام الوكلاء (Agents) لبناء تدفقات عمل أكثر ذكاءً وقدرة على تنفيذ المهام. بنهاية الدورة ستكون قادرًا على إعداد خادم GPU محلي وتشغيل نماذج مفتوحة المصدر وبناء تطبيقات تعتمد عليها بشكل عملي.
Derek Wales
Data Scientist