Componentes em um cluster Spark
Spark é uma plataforma de computação distribuída. Ele consegue ser eficiente distribuindo dados e cálculos por um monte de computadores.
Um cluster Spark é feito de vários componentes de hardware e software que funcionam juntos.
Qual destes não faz parte de um cluster Spark?
Este exercício faz parte do curso
Machine Learning com PySpark
Exercício interativo prático
Transforme a teoria em ação com um de nossos exercícios interativos
