Múltiples BashOperators
Flujo de aire DAGs puede contener muchos operadores, cada uno realizando sus tareas definidas.
Has implementado con éxito uno de tus guiones como tarea Airflow y has decidido seguir migrando tus guiones individuales a un Airflow completo DAG. Ahora quieres añadir más componentes al flujo de trabajo. Además del cleanup.sh
utilizado en el ejercicio anterior, tienes dos scripts más, consolidate_data.sh
y push_data.sh
. Éstos procesan aún más tus datos y los copian a su ubicación final.
El DAG analytics_dag
está definido (lo que significa que no necesitas añadir la declaración with DAG(...)
, y tu tarea cleanup
sigue definida. El BashOperator
ya está importado.
Este ejercicio forma parte del curso
Introducción a Apache Airflow en Python
Instrucciones de ejercicio
- Define un
BashOperator
llamadoconsolidate
, para ejecutarconsolidate_data.sh
con untask_id
deconsolidate_task
. - Añade un
BashOperator
final llamadopush_data
, que ejecutepush_data.sh
y untask_id
depushdata_task
.
Ejercicio interactivo práctico
Pruebe este ejercicio completando este código de muestra.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)