ComenzarEmpieza gratis

Crear un canal de producción nº 1

Has aprendido mucho sobre cómo funciona Airflow: ahora es el momento de implementar tu flujo de trabajo en una cadena de producción formada por muchos objetos, incluidos sensores y operadores. A tu jefe le interesa que este flujo de trabajo se automatice y pueda proporcionar informes a SLA, ya que supone un impulso adicional para cerrar un trato en el que está trabajando el personal de ventas. El cliente potencial de ventas ha indicado que, una vez que vea las actualizaciones de forma automatizada, estará dispuesto a suscribirse al servicio de datos indicado.

Por lo que has aprendido sobre el proceso, sabes que hay datos de ventas que se cargarán en el sistema. Una vez cargados los datos, debería crearse un nuevo archivo para iniciar el procesamiento completo, pero algo no funciona correctamente.

Consulta el código fuente de DAG para determinar si es necesario añadir algo más.

Este ejercicio forma parte del curso

Introducción a Apache Airflow en Python

Ver curso

Instrucciones de ejercicio

  • Actualiza la página DAG en pipeline.py para importar los operadores necesarios.
  • Ejecuta la tarea sense_file desde la línea de comandos y busca cualquier error. Utiliza el comando airflow tasks test <dag_id> <task_id> <date> y los argumentos adecuados para ejecutar el comando. Para el último argumento, utiliza un -1 en lugar de una fecha concreta.
  • Determina por qué no se completa la tarea sense_file y soluciónalo utilizando el editor. Asegúrate de desplazarte por la salida del terminal para encontrar cualquier ERROR mensajes resaltados en rojo.
  • Vuelve a probar la tarea sense_file y comprueba que se ha solucionado el problema.

Ejercicio interactivo práctico

Convierte la teoría en acción con uno de nuestros ejercicios interactivos

Empieza a hacer ejercicio