Spark, Hadoop en Hive
In de vorige video kwam je best wat open-sourceprojecten tegen: Hadoop, Hive en PySpark. Het is makkelijk om ze door elkaar te halen.
Ze hebben een paar dingen gemeen: ze worden allemaal momenteel beheerd door de Apache Software Foundation en ze zijn allemaal gebruikt voor massale parallelle verwerking. Kun jij de verschillen aanwijzen?
Deze oefening maakt deel uit van de cursus
Introductie tot Data Engineering
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen