Spark, Hadoop und Hive
Im letzten Video hast du schon einige Open-Source-Projekte kennengelernt. Zu ihnen gehören Hadoop, Hive und PySpark. Es ist echt leicht, diese Projekte zu verwechseln.
Sie haben einige Dinge gemeinsam: Sie werden aktuell alle von der Apache Software Foundation verwaltet und wurden schon für komplexe Parallelverarbeitungen genutzt. Kannst du die Unterschiede erkennen?
Diese Übung ist Teil des Kurses
Einführung in das Data Engineering
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
