Scorers personalizados em pipelines
Você está satisfeito com a melhoria na qualidade do seu código, mas acabou de lembrar que, anteriormente, você precisou usar uma métrica de avaliação personalizada, porque falsos positivos custam mais para sua startup do que falsos negativos. Por isso, você quer equipar sua pipeline com scorers além de acurácia, incluindo roc_auc_score(), f1_score() e sua própria função de avaliação personalizada. A pipeline da lição anterior está disponível como pipe, assim como a grade de parâmetros em params e os dados de treino em X_train, y_train. Você também tem confusion_matrix() para ajudar a escrever sua própria métrica.
Este exercício faz parte do curso
Projetando Workflows de Machine Learning em Python
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create a custom scorer
scorer = ____(roc_auc_score)
# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)
# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)