ComenzarEmpieza gratis

Componentes de un clúster Spark

Spark es una plataforma de computación distribuida. Consigue eficiencia distribuyendo los datos y el cálculo entre un clúster de ordenadores.

Un clúster Spark está formado por una serie de componentes de hardware y software que trabajan juntos.

¿Cuál de estos no forma parte de un clúster Spark?

Este ejercicio forma parte del curso

Machine learning con PySpark

Ver curso

Ejercicio interactivo práctico

Convierte la teoría en acción con uno de nuestros ejercicios interactivos

Empieza a hacer ejercicio