Componentes de un clúster Spark
Spark es una plataforma de computación distribuida. Consigue eficiencia distribuyendo los datos y el cálculo entre un clúster de ordenadores.
Un clúster Spark está formado por una serie de componentes de hardware y software que trabajan juntos.
¿Cuál de estos no forma parte de un clúster Spark?
Este ejercicio forma parte del curso
Machine learning con PySpark
Ejercicio interactivo práctico
Convierte la teoría en acción con uno de nuestros ejercicios interactivos
