Aan de slagGa gratis aan de slag

Alles samenbrengen

Oké, tijd om alles wat je tot nu toe hebt geleerd samen te brengen! In deze laatste oefening van de cursus combineer je je werk uit de vorige oefeningen tot één end-to-end XGBoost-pijplijn, zodat je je begrip van preprocessing en pijplijnen in XGBoost echt vastlegt.

Je werk uit de vorige 3 oefeningen, waarin je de data hebt voorbewerkt en je pijplijn hebt opgezet, is voor je ingeladen. Jouw taak is om een gerandomiseerde zoekopdracht uit te voeren en de beste hyperparameters te vinden.

Deze oefening maakt deel uit van de cursus

Extreme Gradient Boosting met XGBoost

Cursus bekijken

Oefeninstructies

  • Stel het parameterrooster in om te tunen op 'clf__learning_rate' (van 0.05 tot 1 in stappen van 0.05), 'clf__max_depth' (van 3 tot 10 in stappen van 1) en 'clf__n_estimators' (van 50 tot 200 in stappen van 50).
  • Voer, met je pipeline als estimator, een 2-voudige RandomizedSearchCV uit met een n_iter van 2. Gebruik "roc_auc" als metriek en zet verbose op 1 zodat de output gedetailleerder is. Sla het resultaat op in randomized_roc_auc.
  • Fit randomized_roc_auc op X en y.
  • Bepaal de beste score en de beste schatter van randomized_roc_auc.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Code bewerken en uitvoeren