Plusieurs BashOperator
Les DAGs Airflow peuvent contenir de nombreux opérateurs, chacun exécutant ses tâches définies.
Vous avez réussi à implémenter l’un de vos scripts comme une tâche Airflow et avez décidé de continuer à migrer vos scripts individuels vers un DAG Airflow complet. Vous souhaitez maintenant ajouter d’autres composants au workflow. En plus du cleanup.sh utilisé dans l’exercice précédent, vous disposez de deux autres scripts : consolidate_data.sh et push_data.sh. Ils poursuivent le traitement de vos données et les copient vers leur emplacement final.
Le DAG analytics_dag est défini (vous n’avez donc pas besoin d’ajouter l’instruction with DAG(...)), et votre tâche cleanup est toujours définie. Le BashOperator est déjà importé.
Cet exercice fait partie du cours
Introduction à Apache Airflow en Python
Instructions
- Définissez un
BashOperatorappeléconsolidate, pour exécuterconsolidate_data.shavec untask_iddeconsolidate_task. - Ajoutez un dernier
BashOperatorappelépush_data, qui exécutepush_data.shet untask_iddepushdata_task.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)