LoslegenKostenlos loslegen

Komponenten in einem Spark-Cluster

Spark ist eine verteilte Rechenplattform. Effizienz wird erreicht, indem Daten und Berechnungen auf einen Cluster von Computern verteilt werden.

Ein Spark-Cluster besteht aus mehreren Hardware- und Softwarekomponenten, die zusammenarbeiten.

Welcher dieser Punkte gehört nicht zu einem Spark-Cluster?

Diese Übung ist Teil des Kurses

Maschinelles Lernen mit PySpark

Kurs anzeigen

Interaktive Übung

Setze die Theorie in einer unserer interaktiven Übungen in die Praxis um

Übung starten