Birden Fazla BashOperator
Airflow DAG'leri, her biri tanımlı görevini yapan birçok operatör içerebilir.
Betiklerinden birini başarıyla bir Airflow görevi olarak uyguladın ve tekil betiklerini tam bir Airflow DAG'ine taşımaya devam etmeye karar verdin. Şimdi iş akışına daha fazla bileşen eklemek istiyorsun. Önceki egzersizde kullandığın cleanup.sh'in yanı sıra iki betiğin daha var: consolidate_data.sh ve push_data.sh. Bunlar verini daha da işler ve son konumuna kopyalar.
analytics_dag DAG'i tanımlı (yani with DAG(...) ifadesini eklemene gerek yok) ve cleanup görevin hâlâ tanımlı. BashOperator zaten içe aktarılmış durumda.
Bu egzersiz
Python ile Apache Airflow'a Giriş
kursunun bir parçasıdırEgzersiz talimatları
consolidate_data.sh'i çalıştıracak vetask_id'siconsolidate_taskolan,consolidateadlı birBashOperatortanımla.push_data.shi çalıştıracak vetask_id'sipushdata_taskolan, son birBashOperator(push_data) ekle.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
task_id='consolidate_task',
bash_command=____
)
# Define a final operator to execute the `push_data.sh` script
push_data = ____(
____=____,
____=____
)