TrueschoTruescho
كل الدورات
البيانات الضخمة للأغذية والزراعة: المبادئ والأدوات
edX
دورة
متوسط
مجاني للتدقيق
شهادة

البيانات الضخمة للأغذية والزراعة: المبادئ والأدوات

Wageningen University & Research

تعلّم مبادئ وأدوات البيانات الضخمة في الزراعة والأغذية لمعالجة البيانات على نطاق واسع باستخدام Hadoop وSpark واتخاذ قرارات أسرع.

8 ساعة/أسبوع6 أسبوعالإنجليزية3,264 متسجل
مجاني للتدقيق

عن الدورة

فكّ غموض تقنيات البيانات الضخمة المعقّدة في قطاع الأغذية والزراعة. مع اتساع عصر البيانات الضخمة، تتطور تقنيات الاستشعار وتقنيات المعلومات بسرعة كبيرة، ما يؤدي إلى توليد كميات هائلة من البيانات في البحث العلمي والأعمال. ومن الناحية المثالية، يمكن لهذه البيانات أن تقدّم رؤى قيّمة لدعم اتخاذ القرار في الوقت الحقيقي. لكن معالجة البيانات بالأساليب التقليدية لم تعد كافية عندما تصبح البيانات كبيرة ومتنوعة وسريعة التدفق. مقارنةً بالمعالجة التقليدية للبيانات، قد تبدو الأدوات الحديثة معقّدة وصعبة الفهم. قبل استخدام هذه الأدوات بفعالية، تحتاج إلى فهم كيفية التعامل مع مجموعات البيانات الضخمة، ولماذا تُعد بعض المبادئ أساسية لنجاح الحلول القابلة للتوسع. ستتعرّف في هذه الدورة على مبادئ مثل «عدم القابلية للتغيير» (Immutability) و«الدوال النقية» (Pure Functions)، وكيف تمكّن هذه المبادئ من المعالجة المتوازية للبيانات وفق نهج «قسّم تسُد» (divide and conquer)، وهو أمر ضروري لإدارة البيانات الضخمة بكفاءة. خلال الدورة ستكتسب الأساس المفاهيمي الذي يمكّنك من التقدّم بثقة: كيف تميّز الحل القابل للتوسع المناسب لحالتك وكيف تطبّقه عملياً. كما ستفهم الفروق بين توسيع القدرة على جهاز واحد (scaling up) والتوسع عبر عدة أجهزة/عُقد (scaling out)، وكيف تعمل المعالجة على العناقيد باستخدام أساليب مثل map-reduce. تُقدَّم الرؤى والأدوات في هذه الدورة بصورة مستقلة عن لغة البرمجة، مع أمثلة سهلة الاستخدام في Python، ونظام الملفات الموزع Hadoop HDFS، وإطار Apache Spark، إضافةً إلى توضيح كيف تجعل تقنيات مثل DataFrames وطبقات التغليف (wrapper technology) العمل أسهل وأكثر إنتاجية.

ماذا ستتعلم

  • التعرّف على خصائص البيانات الضخمة: الحجم (Volume) والسرعة (Velocity) والتنوع (Variety) والمصداقية (Veracity)
  • فهم الفرق بين التوسع الرأسي (Scaling up) والتوسع الأفقي (Scaling out)
  • استيعاب مبادئ البيانات الضخمة: عدم القابلية للتغيير (Immutability) والدوال النقية (Pure functions)
  • معالجة البيانات الضخمة باستخدام Map-Reduce عبر العناقيد (Clusters)
  • فهم تقنيات مثل أنظمة الملفات الموزعة وHadoop
  • فهم كيف تسهّل DataFrames وتقنيات التغليف مثل Apache Spark العمل وتزيد الإنتاجية

المتطلبات المسبقة

  • تعليم جامعي و/أو معرفة عملية بالرياضيات والعلوم
  • اهتمام قوي بعلوم الحاسوب (شغف بمجال علوم الحاسوب)

المدرسون

I

Ioannis N. Athanasiadis

Professor in Artificial Intelligence and Data Science

S

Sjoukje Osinga

Assistant Professor in Information Technology

C

Christos Pylianidis

PhD Student Information Technology

المواضيع

جمع البيانات
عدم القابلية للتغيير
أباتشي سبارك
الذكاء الاصطناعي
الابتكار

معلومات الدورة

المنصةedX
المستوىمتوسط
طريقة التعلمغير محدد
شهادةمتاحة
السعرمجاني للتدقيق

المهارات

جمع البيانات
عدم القابلية للتغيير
أباتشي سبارك
الذكاء الاصطناعي
الابتكار
Python (Programming Language)
Data Science
Information Technology
Decision Making
Written Composition

ابدأ التعلم الآن