Evaluadores personalizados en pipelines
Estás orgulloso de la mejora en la calidad de tu código, pero recuerdas que antes tuviste que usar una métrica de evaluación personalizada porque los falsos positivos le cuestan más a tu startup que los falsos negativos. Por ello, quieres dotar tu pipeline de evaluadores más allá de la accuracy, incluyendo roc_auc_score(), f1_score() y tu propia función de evaluación personalizada. El pipeline de la lección anterior está disponible como pipe, la rejilla de parámetros como params y los datos de entrenamiento como X_train, y_train. También cuentas con confusion_matrix() para poder escribir tu propia métrica.
Este ejercicio forma parte del curso
Diseño de flujos de trabajo de Machine Learning en Python
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Create a custom scorer
scorer = ____(roc_auc_score)
# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)
# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)