BaşlayınÜcretsiz Başlayın

Birden Fazla BashOperator

Airflow DAG'leri, her biri tanımlı görevini yapan birçok operatör içerebilir.

Betiklerinden birini başarıyla bir Airflow görevi olarak uyguladın ve tekil betiklerini tam bir Airflow DAG'ine taşımaya devam etmeye karar verdin. Şimdi iş akışına daha fazla bileşen eklemek istiyorsun. Önceki egzersizde kullandığın cleanup.sh'in yanı sıra iki betiğin daha var: consolidate_data.sh ve push_data.sh. Bunlar verini daha da işler ve son konumuna kopyalar.

analytics_dag DAG'i tanımlı (yani with DAG(...) ifadesini eklemene gerek yok) ve cleanup görevin hâlâ tanımlı. BashOperator zaten içe aktarılmış durumda.

Bu egzersiz

Python ile Apache Airflow'a Giriş

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • consolidate_data.sh'i çalıştıracak ve task_id'si consolidate_task olan, consolidate adlı bir BashOperator tanımla.
  • push_data.shi çalıştıracak ve task_id'si pushdata_task olan, son bir BashOperator (push_data) ekle.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Define a second operator to run the `consolidate_data.sh` script
consolidate = ____(
    task_id='consolidate_task',
    bash_command=____
    )

# Define a final operator to execute the `push_data.sh` script
push_data = ____(
    ____=____,
    ____=____
    )
Kodu Düzenle ve Çalıştır