Évaluateurs personnalisés dans les pipelines
Vous êtes fier de l’amélioration de la qualité de votre code, mais vous vous rappelez qu’auparavant vous deviez utiliser une métrique d’évaluation personnalisée, car les faux positifs coûtent plus cher à votre startup que les faux négatifs. Vous souhaitez donc doter votre pipeline d’évaluateurs autres que l’accuracy, notamment roc_auc_score(), f1_score(), ainsi que votre propre fonction de scoring personnalisée. Le pipeline de la leçon précédente est disponible sous le nom pipe, la grille de paramètres sous params et les données d’entraînement sous X_train, y_train. Vous disposez également de confusion_matrix() pour définir votre propre métrique.
Cet exercice fait partie du cours
Concevoir des workflows de Machine Learning en Python
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Create a custom scorer
scorer = ____(roc_auc_score)
# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)
# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)