LoslegenKostenlos loslegen

Eigene Scorer in Pipelines

Du bist stolz auf die Verbesserung deiner Codequalität, erinnerst dich aber daran, dass du bisher eine benutzerdefinierte Bewertungsmetrik verwenden musstest, weil für dein Startup False Positives teurer sind als False Negatives. Du möchtest deine Pipeline daher mit anderen Scorern als Accuracy ausstatten, darunter roc_auc_score(), f1_score() und deine eigene benutzerdefinierte Bewertungsfunktion. Die Pipeline aus der vorherigen Lektion ist als pipe verfügbar, das Parameter-Grid als params und die Trainingsdaten als X_train, y_train. Außerdem steht dir confusion_matrix() zur Verfügung, um deine eigene Metrik zu schreiben.

Diese Übung ist Teil des Kurses

Machine-Learning-Workflows in Python entwerfen

Kurs anzeigen

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create a custom scorer
scorer = ____(roc_auc_score)

# Initialize the CV object
gs = GridSearchCV(pipe, param_grid=params, scoring=____)

# Fit it to the data and print the winning combination
print(gs.____(X_train, y_train).____)
Code bearbeiten und ausführen