Cross-validatie-score
Nu ga je cross-validatie gebruiken met cross_val_score() om de algehele performance te controleren.
Deze oefening is een mooie kans om te testen met de hyperparameters learning_rate en max_depth. Onthoud: hyperparameters zijn als instellingen die kunnen helpen om de performance te optimaliseren.
De gegevenssets cr_loan_prep, X_train en y_train zijn al in de werkruimte geladen.
Deze oefening maakt deel uit van de cursus
Kredietrisicomodellering in Python
Oefeninstructies
- Maak een gradient boosted tree met een learning rate van
0.1en een maximale diepte van7. Sla het model op alsgbt. - Bereken de cross-validatiescores op de gegevenssets
X_traineny_trainmet4folds. Sla de resultaten op alscv_scores. - Print de cross-validatiescores.
- Print de gemiddelde accuracyscore en standaarddeviatie met opmaak.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create a gradient boosted tree model using two hyperparameters
____ = xgb.____(____ = ____, ____ = ____)
# Calculate the cross validation scores for 4 folds
____ = ____(____, ____, np.ravel(____), cv = ____)
# Print the cross validation scores
print(____)
# Print the average accuracy and standard deviation of the scores
print("Average accuracy: %0.2f (+/- %0.2f)" % (____.____(),
____.____() * 2))