Varios BashOperators
Los DAGs de Airflow pueden incluir muchos operadores, cada uno ejecutando sus tareas definidas.
Has implementado correctamente uno de tus scripts como una tarea de Airflow y has decidido seguir migrando tus scripts individuales a un DAG completo de Airflow. Ahora quieres añadir más componentes al flujo de trabajo. Además del cleanup.sh usado en el ejercicio anterior, tienes dos scripts más, consolidate_data.sh y push_data.sh. Estos procesan aún más tus datos y los copian a su ubicación final.
El DAG analytics_dag ya está definido (es decir, no necesitas añadir la sentencia with DAG(...)), y tu tarea cleanup sigue definida. El BashOperator ya está importado.
Este ejercicio forma parte del curso
Introducción a Apache Airflow en Python
Instrucciones del ejercicio
- Define un
BashOperatorllamadoconsolidate, para ejecutarconsolidate_data.shcon untask_iddeconsolidate_task. - Añade un
BashOperatorfinal llamadopush_data, que ejecutepush_data.shy tenga untask_iddepushdata_task.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)