Vários BashOperators
O Airflow DAGs pode conter muitos operadores, cada um executando suas tarefas definidas.
Você implementou com sucesso um de seus scripts como uma tarefa do Airflow e decidiu continuar migrando seus scripts individuais para um Airflow completo DAG. Agora você deseja adicionar mais componentes ao fluxo de trabalho. Além do cleanup.sh
usado no exercício anterior, você tem mais dois scripts, consolidate_data.sh
e push_data.sh
. Eles processam ainda mais seus dados e os copiam para o local final.
O DAG analytics_dag
está definido (o que significa que você não precisa adicionar a instrução with DAG(...)
, e sua tarefa cleanup
ainda está definida). O site BashOperator
já foi importado.
Este exercício faz parte do curso
Introdução ao Apache Airflow em Python
Instruções do exercício
- Defina um
BashOperator
chamadoconsolidate
, para executarconsolidate_data.sh
com umtask_id
deconsolidate_task
. - Adicione um
BashOperator
final chamadopush_data
, executandopush_data.sh
e umtask_id
depushdata_task
.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)