Komponenten in einem Spark-Cluster
Spark ist eine verteilte Rechenplattform. Effizienz wird erreicht, indem Daten und Berechnungen auf einen Cluster von Computern verteilt werden.
Ein Spark-Cluster besteht aus mehreren Hardware- und Softwarekomponenten, die zusammenarbeiten.
Welcher dieser Punkte gehört nicht zu einem Spark-Cluster?
Diese Übung ist Teil des Kurses
Maschinelles Lernen mit PySpark
Interaktive Übung
Setze die Theorie in einer unserer interaktiven Übungen in die Praxis um
