Aan de slagGa gratis aan de slag

Spark, Hadoop en Hive

In de vorige video kwam je best wat open-sourceprojecten tegen: Hadoop, Hive en PySpark. Het is makkelijk om ze door elkaar te halen.

Ze hebben een paar dingen gemeen: ze worden allemaal momenteel beheerd door de Apache Software Foundation en ze zijn allemaal gebruikt voor massale parallelle verwerking. Kun jij de verschillen aanwijzen?

Deze oefening maakt deel uit van de cursus

Introductie tot Data Engineering

Cursus bekijken

Praktische interactieve oefening

Zet theorie om in actie met een van onze interactieve oefeningen.

Begin met trainen