Componentes em um cluster Spark
O Spark é uma plataforma de computação distribuída. Ele alcança a eficiência distribuindo dados e computação em um cluster de computadores.
Um cluster do Spark consiste em vários componentes de hardware e software que trabalham juntos.
Qual dessas opções não faz parte de um cluster do Spark?
Este exercício faz parte do curso
Aprendizado de máquina com PySpark
Exercício interativo prático
Transforme a teoria em ação com um de nossos exercícios interativos
