Spark, Hadoop y Hive
En el vídeo anterior te has encontrado con bastantes proyectos de código abierto. Están Hadoop, Hive y PySpark. Es fácil confundirse entre estos proyectos.
Tienen algunas cosas en común: todos ellos son mantenidos actualmente por la Apache Software Foundation, y todos han sido utilizados para el procesamiento paralelo masivo. ¿Puedes detectar las diferencias?
Este ejercicio forma parte del curso
Introducción a la ingeniería de datos
Ejercicio interactivo práctico
Convierte la teoría en acción con uno de nuestros ejercicios interactivos
