LoslegenKostenlos loslegen

Komponenten in einem Spark-Cluster

Spark ist eine verteilte Rechenplattform. Effizienz wird erreicht, indem Daten und Berechnungen auf einen Cluster von Computern verteilt werden.

Ein Spark-Cluster besteht aus mehreren Hardware- und Softwarekomponenten, die zusammenarbeiten.

Welcher dieser Punkte gehört nicht zu einem Spark-Cluster?

Diese Übung ist Teil des Kurses

Maschinelles Lernen mit PySpark

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten