Spark, Hadoop e Hive
Você encontrou vários projetos de código aberto no vídeo anterior. Há o Hadoop, o Hive e o PySpark. É fácil você se confundir entre esses projetos.
Eles têm algumas coisas em comum: todos são mantidos atualmente pela Apache Software Foundation e todos foram usados para processamento paralelo em massa. Você consegue identificar as diferenças?
Este exercício faz parte do curso
Introdução à engenharia de dados
Exercício interativo prático
Transforme a teoria em ação com um de nossos exercícios interativos
