ComeçarComece de graça

Componentes em um cluster Spark

O Spark é uma plataforma de computação distribuída. Ele alcança a eficiência distribuindo dados e computação em um cluster de computadores.

Um cluster Spark consiste em vários componentes de hardware e software que trabalham juntos.

Qual dessas opções não faz parte de um cluster Spark?

Este exercício faz parte do curso

Machine learning com PySpark

Ver curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Começar o exercício