Vários BashOperators
DAGs do Airflow podem conter muitos operadores, cada um executando suas tarefas definidas.
Você implementou com sucesso um dos seus scripts como uma tarefa do Airflow e decidiu continuar migrando seus scripts individuais para um DAG completo do Airflow. Agora você quer adicionar mais componentes ao fluxo de trabalho. Além do cleanup.sh usado no exercício anterior, você tem mais dois scripts, consolidate_data.sh e push_data.sh. Eles fazem mais processamento nos seus dados e copiam para o local final.
O DAG analytics_dag está definido (ou seja, você não precisa adicionar a instrução with DAG(...)), e sua tarefa cleanup continua definida. O BashOperator já foi importado.
Este exercício faz parte do curso
Introdução ao Apache Airflow em Python
Instruções do exercício
- Defina um
BashOperatorchamadoconsolidate, para executarconsolidate_data.shcomtask_idigual aconsolidate_task. - Adicione um
BashOperatorfinal chamadopush_data, executandopush_data.shetask_idigual apushdata_task.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)