Aangepaste scorers in pipelines
Je bent trots op de verbetering van je codekwaliteit, maar je herinnert je dat je eerder een aangepaste beoordelingsmaat nodig had, omdat false positives je startup meer kosten dan false negatives. Je wilt je pipeline daarom uitrusten met andere scorers dan accuracy, waaronder roc_auc_score(), f1_score() en je eigen aangepaste scoringsfunctie. De pipeline uit de vorige les is beschikbaar als pipe, het parameterrooster als params en de trainingsgegevens als X_train, y_train. Je hebt ook confusion_matrix() tot je beschikking om je eigen metriek te schrijven.
Deze oefening maakt deel uit van de cursus
Machine Learning-workflows ontwerpen in Python
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create a custom scorer
scorer = ____(roc_auc_score)
# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)
# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)