
فكّ غموض تقنيات البيانات الضخمة المعقّدة في قطاع الأغذية والزراعة. مع اتساع عصر البيانات الضخمة، تتطور تقنيات الاستشعار وتقنيات المعلومات بسرعة كبيرة، ما يؤدي إلى توليد كميات هائلة من البيانات في البحث العلمي والأعمال. ومن الناحية المثالية، يمكن لهذه البيانات أن تقدّم رؤى قيّمة لدعم اتخاذ القرار في الوقت الحقيقي. لكن معالجة البيانات بالأساليب التقليدية لم تعد كافية عندما تصبح البيانات كبيرة ومتنوعة وسريعة التدفق. مقارنةً بالمعالجة التقليدية للبيانات، قد تبدو الأدوات الحديثة معقّدة وصعبة الفهم. قبل استخدام هذه الأدوات بفعالية، تحتاج إلى فهم كيفية التعامل مع مجموعات البيانات الضخمة، ولماذا تُعد بعض المبادئ أساسية لنجاح الحلول القابلة للتوسع. ستتعرّف في هذه الدورة على مبادئ مثل «عدم القابلية للتغيير» (Immutability) و«الدوال النقية» (Pure Functions)، وكيف تمكّن هذه المبادئ من المعالجة المتوازية للبيانات وفق نهج «قسّم تسُد» (divide and conquer)، وهو أمر ضروري لإدارة البيانات الضخمة بكفاءة. خلال الدورة ستكتسب الأساس المفاهيمي الذي يمكّنك من التقدّم بثقة: كيف تميّز الحل القابل للتوسع المناسب لحالتك وكيف تطبّقه عملياً. كما ستفهم الفروق بين توسيع القدرة على جهاز واحد (scaling up) والتوسع عبر عدة أجهزة/عُقد (scaling out)، وكيف تعمل المعالجة على العناقيد باستخدام أساليب مثل map-reduce. تُقدَّم الرؤى والأدوات في هذه الدورة بصورة مستقلة عن لغة البرمجة، مع أمثلة سهلة الاستخدام في Python، ونظام الملفات الموزع Hadoop HDFS، وإطار Apache Spark، إضافةً إلى توضيح كيف تجعل تقنيات مثل DataFrames وطبقات التغليف (wrapper technology) العمل أسهل وأكثر إنتاجية.
Ioannis N. Athanasiadis
Professor in Artificial Intelligence and Data Science
Sjoukje Osinga
Assistant Professor in Information Technology
Christos Pylianidis
PhD Student Information Technology