ComeçarComece gratuitamente

Componentes em um cluster Spark

O Spark é uma plataforma de computação distribuída. Ele alcança a eficiência distribuindo dados e computação em um cluster de computadores.

Um cluster do Spark consiste em vários componentes de hardware e software que trabalham juntos.

Qual dessas opções não faz parte de um cluster do Spark?

Este exercício faz parte do curso

Aprendizado de máquina com PySpark

Ver Curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Comece o exercício