Diese Übung ist Teil des Kurses
Erfahre, wie Daten mithilfe von Datenpipelines gesammelt, verarbeitet und verschoben werden. Du wirst die Qualitäten der besten Datenpipelines kennenlernen und dich darauf vorbereiten, deine eigene zu entwerfen und aufzubauen.
Tauche ein in die Nutzung von Pandas zum Extrahieren, Transformieren und Laden von Daten und baue deine ersten Datenpipelines auf. Lerne, wie du deine ETL Logik wiederverwendbar machst und deine Pipelines mit Logging und Ausnahmebehandlung versiehst.
Verbessere deine Arbeitsabläufe mit fortschrittlichen Daten-Pipelining-Techniken, wie z. B. der Arbeit mit nicht-tabellarischen Daten und der Persistenz von DataFrames in SQL Datenbanken. Erfahre, wie du mit Pandas fortgeschrittene Transformationen durchführen kannst, und lerne Best Practices für die Arbeit mit komplexen Daten kennen.
Aktuelle Übung
In diesem letzten Kapitel erstellst du Frameworks, um Datenpipelines zu validieren und zu testen, bevor du sie in die Produktion überführst. Nachdem du deine Pipeline getestet hast, lernst du Techniken kennen, mit denen du deine Datenpipeline durchgängig betreiben kannst und gleichzeitig einen Einblick in die Leistung der Pipeline erhältst.