Spark, Hadoop e Hive
Nel video precedente hai visto diversi progetti open source: Hadoop, Hive e PySpark. È facile confondersi tra questi progetti.
Hanno alcuni punti in comune: sono tutti mantenuti dalla Apache Software Foundation e sono stati usati per l'elaborazione parallela su larga scala. Riesci a coglierne le differenze?
Questo esercizio fa parte del corso
Introduzione al Data Engineering
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio