Precision vs. Recall
Die Metriken zur Bewertung deines Modells sollten immer von der konkreten Anwendung abhängen. Nehmen wir in diesem Beispiel an, du bist eine echt schlechte Verliererin bzw. ein echt schlechter Verlierer bei Tic-Tac-Toe – aber nur, wenn du dir sicher bist, dass du gewinnen wirst.
Wähle die passendste Metrik, entweder Precision oder Recall, um dieses Beispiel zu lösen. Denk daran: Wenn du glaubst, dass du gewinnen wirst, dann solltest du auch gewinnen!
Verwende rfc, ein Random-Forest-Klassifikationsmodell, das auf dem Datensatz tic_tac_toe trainiert wurde.
Diese Übung ist Teil des Kurses
Modellvalidierung in Python
Anleitung zur Übung
- Importiere die Precision- oder die Recall-Metrik aus
sklearn. Nur eine Methode ist im gegebenen Kontext korrekt. - Berechne Precision oder Recall mit
y_testals True-Labels undtest_predictionsals Vorhersagen. - Gib den finalen Score basierend auf deiner gewählten Metrik aus.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
from sklearn.metrics import ____
test_predictions = rfc.predict(X_test)
# Create precision or recall score based on the metric you imported
score = ____(____, ____)
# Print the final result
print("The ____ value is {0:.2f}".format(____))