MulaiMulai sekarang secara gratis

Menggabungkan semuanya

Baik, saatnya menggabungkan semua yang telah Anda pelajari sejauh ini! Pada latihan terakhir kursus ini, Anda akan mengombinasikan pekerjaan Anda dari latihan sebelumnya menjadi satu pipeline XGBoost end-to-end untuk benar-benar memantapkan pemahaman Anda tentang prapemrosesan dan pipeline di XGBoost.

Pekerjaan Anda dari 3 latihan sebelumnya, saat Anda melakukan prapemrosesan data dan menyiapkan pipeline, telah dimuat sebelumnya. Tugas Anda adalah melakukan pencarian acak dan mengidentifikasi hyperparameter terbaik.

Latihan ini adalah bagian dari kursus

Extreme Gradient Boosting dengan XGBoost

Lihat Kursus

Petunjuk latihan

  • Atur kisi parameter untuk men-tuning 'clf__learning_rate' (dari 0.05 hingga 1 dengan kenaikan 0.05), 'clf__max_depth' (dari 3 hingga 10 dengan kenaikan 1), dan 'clf__n_estimators' (dari 50 hingga 200 dengan kenaikan 50).
  • Dengan menggunakan pipeline Anda sebagai estimator, lakukan RandomizedSearchCV 2-fold dengan n_iter sebesar 2. Gunakan "roc_auc" sebagai metrik, dan setel verbose ke 1 agar keluarannya lebih terperinci. Simpan hasilnya dalam randomized_roc_auc.
  • Fit randomized_roc_auc ke X dan y.
  • Hitung skor terbaik dan estimator terbaik dari randomized_roc_auc.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Edit dan Jalankan Kode