ComeçarComece de graça

Componentes em um cluster Spark

Spark é uma plataforma de computação distribuída. Ele consegue ser eficiente distribuindo dados e cálculos por um monte de computadores.

Um cluster Spark é feito de vários componentes de hardware e software que funcionam juntos.

Qual destes não faz parte de um cluster Spark?

Este exercício faz parte do curso

Machine Learning com PySpark

Ver curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Começar o exercício