Alles samenbrengen
Oké, tijd om alles wat je tot nu toe hebt geleerd samen te brengen! In deze laatste oefening van de cursus combineer je je werk uit de vorige oefeningen tot één end-to-end XGBoost-pijplijn, zodat je je begrip van preprocessing en pijplijnen in XGBoost echt vastlegt.
Je werk uit de vorige 3 oefeningen, waarin je de data hebt voorbewerkt en je pijplijn hebt opgezet, is voor je ingeladen. Jouw taak is om een gerandomiseerde zoekopdracht uit te voeren en de beste hyperparameters te vinden.
Deze oefening maakt deel uit van de cursus
Extreme Gradient Boosting met XGBoost
Oefeninstructies
- Stel het parameterrooster in om te tunen op
'clf__learning_rate'(van0.05tot1in stappen van0.05),'clf__max_depth'(van3tot10in stappen van1) en'clf__n_estimators'(van50tot200in stappen van50). - Voer, met je
pipelineals estimator, een 2-voudigeRandomizedSearchCVuit met eenn_itervan2. Gebruik"roc_auc"als metriek en zetverboseop1zodat de output gedetailleerder is. Sla het resultaat op inrandomized_roc_auc. - Fit
randomized_roc_aucopXeny. - Bepaal de beste score en de beste schatter van
randomized_roc_auc.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)