Mehrere BashOperatoren
Airflow DAGs kann viele Operatoren enthalten, die jeweils ihre festgelegten Aufgaben erfüllen.
Du hast eines deiner Skripte erfolgreich als Airflow-Aufgabe implementiert und hast beschlossen, deine einzelnen Skripte zu einem vollständigen Airflow DAG zu migrieren. Du möchtest nun weitere Komponenten zum Workflow hinzufügen. Zusätzlich zu dem in der vorherigen Übung verwendeten cleanup.sh hast du zwei weitere Skripte, consolidate_data.sh und push_data.sh. Diese verarbeiten deine Daten weiter und kopieren sie an ihren endgültigen Speicherort.
Die DAG analytics_dag ist definiert (d.h. du brauchst die with DAG(...) Anweisung nicht hinzuzufügen, und deine cleanup Aufgabe ist immer noch definiert. Die BashOperator ist bereits importiert.
Diese Übung ist Teil des Kurses
Einführung in Apache Airflow in Python
Anleitung zur Übung
- Definiere ein
BashOperatornamensconsolidate, umconsolidate_data.shmit einemtask_idvonconsolidate_taskauszuführen. - Füge eine letzte
BashOperatormit dem Namenpush_datahinzu, auf derpush_data.shund einetask_idvonpushdata_tasklaufen.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)