LoslegenKostenlos loslegen

Komponenten in einem Spark Cluster

Spark ist eine Plattform für verteiltes Rechnen. Die Effizienz wird durch die Verteilung von Daten und Berechnungen auf einen Cluster von Computern erreicht.

Ein Spark-Cluster besteht aus einer Reihe von Hardware- und Softwarekomponenten, die zusammenarbeiten.

Welches dieser Elemente ist nicht Teil eines Spark-Clusters?

Diese Übung ist Teil des Kurses

Maschinelles Lernen mit PySpark

Kurs anzeigen

Interaktive Übung

Setze die Theorie in einer unserer interaktiven Übungen in die Praxis um

Übung starten