Componentes de un clúster Spark
Spark es una plataforma de computación distribuida. Consigue eficiencia distribuyendo los datos y el cálculo entre un clúster de ordenadores.
Un clúster Spark está formado por una serie de componentes de hardware y software que funcionan conjuntamente.
¿Cuál de estos no forma parte de un clúster Spark?
Este ejercicio forma parte del curso
Machine learning con PySpark
Ejercicio interactivo práctico
Pon en práctica la teoría con uno de nuestros ejercicios interactivos
Empezar ejercicio