LoslegenKostenlos loslegen

Schritte der Datenpipeline

Eine deiner geschäftskritischeren Datenpipelines bei Sierra Publishing basiert auf einem hochfrequenten Datenstrom, der aus einem Kafka-Datenstream kommt. Wir müssen die Daten einlesen und mit ein paar anderen Datensätzen verknüpfen.

Data Streaming Pipeline

Dein Data-Engineering-Team möchte Databricks nutzen, um diese Datenpipeline effizienter zu machen und es nachgelagerten Nutzer:innen zu ermöglichen, die Daten in Echtzeit für ihre Analysen zu lesen.

Diese Übung ist Teil des Kurses

Databricks-Konzepte

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten