Alles zusammenführen
Alles klar, jetzt bringst du alles zusammen, was du bisher gelernt hast! In dieser letzten Übung des Kurses kombinierst du deine Arbeit aus den vorherigen Übungen zu einer durchgängigen XGBoost-Pipeline, um dein Verständnis von Vorverarbeitung und Pipelines in XGBoost wirklich zu festigen.
Deine Arbeit aus den letzten 3 Übungen, in denen du die Daten vorverarbeitet und die Pipeline eingerichtet hast, wurde vorab geladen. Deine Aufgabe ist es, eine Randomized Search durchzuführen und die besten Hyperparameter zu identifizieren.
Diese Übung ist Teil des Kurses
Extreme Gradient Boosting mit XGBoost
Anleitung zur Übung
- Richte das Parameter-Grid ein, um
'clf__learning_rate'(von0.05bis1in Schritten von0.05),'clf__max_depth'(von3bis10in Schritten von1) und'clf__n_estimators'(von50bis200in Schritten von50) zu tunen. - Führe mit deiner
pipelineals Estimator eine 2-facheRandomizedSearchCVmitn_itervon2durch. Verwende"roc_auc"als Metrik und setzeverboseauf1, damit die Ausgabe ausführlicher ist. Speichere das Ergebnis inrandomized_roc_auc. - Fitte
randomized_roc_aucaufXundy. - Ermittle den besten Score und den besten Estimator von
randomized_roc_auc.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)