Vários BashOperators
O Airflow DAGs pode conter muitos operadores, cada um executando suas tarefas definidas.
Você implementou com sucesso um de seus scripts como uma tarefa do Airflow e decidiu continuar migrando seus scripts individuais para um Airflow completo DAG. Agora você deseja adicionar mais componentes ao fluxo de trabalho. Além do cleanup.sh usado no exercício anterior, você tem mais dois scripts, consolidate_data.sh e push_data.sh. Eles processam ainda mais seus dados e os copiam para o local final.
O DAG analytics_dag está definido (o que significa que você não precisa adicionar a instrução with DAG(...), e sua tarefa cleanup ainda está definida). O site BashOperator já foi importado.
Este exercício faz parte do curso
Introdução ao Apache Airflow em Python
Instruções do exercício
- Defina um
BashOperatorchamadoconsolidate, para executarconsolidate_data.shcom umtask_iddeconsolidate_task. - Adicione um
BashOperatorfinal chamadopush_data, executandopush_data.she umtask_iddepushdata_task.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)