ComenzarEmpieza gratis

Evaluadores personalizados en pipelines

Estás orgulloso de la mejora en la calidad de tu código, pero recuerdas que antes tuviste que usar una métrica de evaluación personalizada porque los falsos positivos le cuestan más a tu startup que los falsos negativos. Por ello, quieres dotar tu pipeline de evaluadores más allá de la accuracy, incluyendo roc_auc_score(), f1_score() y tu propia función de evaluación personalizada. El pipeline de la lección anterior está disponible como pipe, la rejilla de parámetros como params y los datos de entrenamiento como X_train, y_train. También cuentas con confusion_matrix() para poder escribir tu propia métrica.

Este ejercicio forma parte del curso

Diseño de flujos de trabajo de Machine Learning en Python

Ver curso

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Create a custom scorer
scorer = ____(roc_auc_score)

# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)

# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)
Editar y ejecutar código