ComenzarEmpieza gratis

Spark, Hadoop y Hive

En el vídeo anterior te has encontrado con bastantes proyectos de código abierto. Están Hadoop, Hive y PySpark. Es fácil confundirse entre estos proyectos.

Tienen algunas cosas en común: todos ellos son mantenidos actualmente por la Apache Software Foundation, y todos han sido utilizados para el procesamiento paralelo masivo. ¿Puedes detectar las diferencias?

Este ejercicio forma parte del curso

Introducción a la ingeniería de datos

Ver curso

Ejercicio interactivo práctico

Convierte la teoría en acción con uno de nuestros ejercicios interactivos

Empieza a hacer ejercicio