CommencerCommencer gratuitement

Évaluateurs personnalisés dans les pipelines

Vous êtes fier de l’amélioration de la qualité de votre code, mais vous vous rappelez qu’auparavant vous deviez utiliser une métrique d’évaluation personnalisée, car les faux positifs coûtent plus cher à votre startup que les faux négatifs. Vous souhaitez donc doter votre pipeline d’évaluateurs autres que l’accuracy, notamment roc_auc_score(), f1_score(), ainsi que votre propre fonction de scoring personnalisée. Le pipeline de la leçon précédente est disponible sous le nom pipe, la grille de paramètres sous params et les données d’entraînement sous X_train, y_train. Vous disposez également de confusion_matrix() pour définir votre propre métrique.

Cet exercice fait partie du cours

Concevoir des workflows de Machine Learning en Python

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Create a custom scorer
scorer = ____(roc_auc_score)

# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)

# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)
Modifier et exécuter le code