LoslegenKostenlos loslegen

Precision vs. Recall

Die Metriken zur Bewertung deines Modells sollten immer von der konkreten Anwendung abhängen. Nehmen wir in diesem Beispiel an, du bist eine echt schlechte Verliererin bzw. ein echt schlechter Verlierer bei Tic-Tac-Toe – aber nur, wenn du dir sicher bist, dass du gewinnen wirst.

Wähle die passendste Metrik, entweder Precision oder Recall, um dieses Beispiel zu lösen. Denk daran: Wenn du glaubst, dass du gewinnen wirst, dann solltest du auch gewinnen!

Verwende rfc, ein Random-Forest-Klassifikationsmodell, das auf dem Datensatz tic_tac_toe trainiert wurde.

Diese Übung ist Teil des Kurses

Modellvalidierung in Python

Kurs anzeigen

Anleitung zur Übung

  • Importiere die Precision- oder die Recall-Metrik aus sklearn. Nur eine Methode ist im gegebenen Kontext korrekt.
  • Berechne Precision oder Recall mit y_test als True-Labels und test_predictions als Vorhersagen.
  • Gib den finalen Score basierend auf deiner gewählten Metrik aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

from sklearn.metrics import ____

test_predictions = rfc.predict(X_test)

# Create precision or recall score based on the metric you imported
score = ____(____, ____)

# Print the final result
print("The ____ value is {0:.2f}".format(____))
Code bearbeiten und ausführen