Komponenten in einem Spark Cluster
Spark ist eine Plattform für verteiltes Rechnen. Die Effizienz wird durch die Verteilung von Daten und Berechnungen auf einen Cluster von Computern erreicht.
Ein Spark-Cluster besteht aus einer Reihe von Hardware- und Softwarekomponenten, die zusammenarbeiten.
Welches dieser Elemente ist nicht Teil eines Spark-Clusters?
Diese Übung ist Teil des Kurses
Maschinelles Lernen mit PySpark
Interaktive Übung
Setze die Theorie in einer unserer interaktiven Übungen in die Praxis um
