Alles zusammenführen I
Du hast dir ein solides Fundament in PySpark aufgebaut, die Kernkomponenten erkundet und praktische Szenarien mit Spark SQL, DataFrames und fortgeschrittenen Operationen durchgearbeitet. Jetzt ist es Zeit, all das Gelernte zusammenzuführen. In den nächsten zwei Übungen erstellst du eine SparkSession und ein DataFrame, wendest Caching für diesen DataFrame an, führst Analysen durch und erklärst das Ergebnis!
Diese Übung ist Teil des Kurses
Einführung in PySpark
Anleitung zur Übung
- Importiere
SparkSessionauspyspark.sql. - Erstelle eine neue
SparkSessionnamensfinal_sparkmitSparkSession.builder.getOrCreate(). - Gib
my_sparkin der Konsole aus, um zu prüfen, dass es eineSparkSessionist. - Erstelle einen neuen DataFrame anhand eines vorab geladenen Schemata und einer Spaltendefinition.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import SparkSession from pyspark.sql
from ____ import ____
# Create my_spark
my_spark = SparkSession.builder.appName(____).____
# Print my_spark
____
# Load dataset into a DataFrame
df = ____(data, schema=columns)
df.show()