Plusieurs BashOperators
Airflow DAGs peut contenir de nombreux opérateurs, chacun effectuant des tâches bien définies.
Vous avez réussi à implémenter un de vos scripts en tant que tâche Airflow et vous avez décidé de continuer à migrer vos scripts individuels vers un Airflow complet DAG. Vous souhaitez maintenant ajouter d'autres composants au flux de travail. En plus du script cleanup.sh
utilisé dans l'exercice précédent, vous disposez de deux autres scripts, consolidate_data.sh
et push_data.sh
. Ces derniers traitent ensuite vos données et les copient vers leur emplacement final.
La tâche DAG analytics_dag
est définie (ce qui signifie que vous n'avez pas besoin d'ajouter la déclaration with DAG(...)
) et votre tâche cleanup
est toujours définie. Le site BashOperator
est déjà importé.
Cet exercice fait partie du cours
Introduction à Apache Airflow en Python
Instructions
- Définissez un
BashOperator
appeléconsolidate
, pour exécuterconsolidate_data.sh
avec untask_id
deconsolidate_task
. - Ajoutez un site final
BashOperator
appelépush_data
, un site en cours d'exécutionpush_data.sh
et un sitetask_id
appelépushdata_task
.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)