Precision vs. recall
De accuracymetriek waarmee je je model evalueert, moet altijd passen bij de specifieke toepassing. Stel in dit voorbeeld dat je een enorme slechte verliezer bent bij boter-kaas-en-eieren, maar alleen als je zeker weet dat je gaat winnen.
Kies de meest geschikte accuracymetriek, precision of recall, om dit voorbeeld af te ronden. Maar onthoud: als je denkt dat je gaat winnen, dan moet je ook echt winnen!
Gebruik rfc, een random forest-classificatiemodel gebouwd op de tic_tac_toe-gegevensset.
Deze oefening maakt deel uit van de cursus
Modelvalidatie in Python
Oefeninstructies
- Importeer de precision- of recall-metriek uit
sklearn. Slechts één methode is juist in deze context. - Bereken precision of recall met
y_testals de echte waarden entest_predictionsals de voorspellingen. - Print de eindscore op basis van de door jou gekozen metriek.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
from sklearn.metrics import ____
test_predictions = rfc.predict(X_test)
# Create precision or recall score based on the metric you imported
score = ____(____, ____)
# Print the final result
print("The ____ value is {0:.2f}".format(____))