Menggabungkan semuanya
Baik, saatnya menggabungkan semua yang telah Anda pelajari sejauh ini! Pada latihan terakhir kursus ini, Anda akan mengombinasikan pekerjaan Anda dari latihan sebelumnya menjadi satu pipeline XGBoost end-to-end untuk benar-benar memantapkan pemahaman Anda tentang prapemrosesan dan pipeline di XGBoost.
Pekerjaan Anda dari 3 latihan sebelumnya, saat Anda melakukan prapemrosesan data dan menyiapkan pipeline, telah dimuat sebelumnya. Tugas Anda adalah melakukan pencarian acak dan mengidentifikasi hyperparameter terbaik.
Latihan ini adalah bagian dari kursus
Extreme Gradient Boosting dengan XGBoost
Petunjuk latihan
- Atur kisi parameter untuk men-tuning
'clf__learning_rate'(dari0.05hingga1dengan kenaikan0.05),'clf__max_depth'(dari3hingga10dengan kenaikan1), dan'clf__n_estimators'(dari50hingga200dengan kenaikan50). - Dengan menggunakan
pipelineAnda sebagai estimator, lakukanRandomizedSearchCV2-fold dengann_itersebesar2. Gunakan"roc_auc"sebagai metrik, dan setelverboseke1agar keluarannya lebih terperinci. Simpan hasilnya dalamrandomized_roc_auc. - Fit
randomized_roc_auckeXdany. - Hitung skor terbaik dan estimator terbaik dari
randomized_roc_auc.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)