Aan de slagGa gratis aan de slag

Cross-validatie-score

Nu ga je cross-validatie gebruiken met cross_val_score() om de algehele performance te controleren.

Deze oefening is een mooie kans om te testen met de hyperparameters learning_rate en max_depth. Onthoud: hyperparameters zijn als instellingen die kunnen helpen om de performance te optimaliseren.

De gegevenssets cr_loan_prep, X_train en y_train zijn al in de werkruimte geladen.

Deze oefening maakt deel uit van de cursus

Kredietrisicomodellering in Python

Cursus bekijken

Oefeninstructies

  • Maak een gradient boosted tree met een learning rate van 0.1 en een maximale diepte van 7. Sla het model op als gbt.
  • Bereken de cross-validatiescores op de gegevenssets X_train en y_train met 4 folds. Sla de resultaten op als cv_scores.
  • Print de cross-validatiescores.
  • Print de gemiddelde accuracyscore en standaarddeviatie met opmaak.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Create a gradient boosted tree model using two hyperparameters
____ = xgb.____(____ = ____, ____ = ____)

# Calculate the cross validation scores for 4 folds
____ = ____(____, ____, np.ravel(____), cv = ____)

# Print the cross validation scores
print(____)

# Print the average accuracy and standard deviation of the scores
print("Average accuracy: %0.2f (+/- %0.2f)" % (____.____(),
                                              ____.____() * 2))
Code bewerken en uitvoeren