Aan de slagGa gratis aan de slag

Precision vs. recall

De accuracymetriek waarmee je je model evalueert, moet altijd passen bij de specifieke toepassing. Stel in dit voorbeeld dat je een enorme slechte verliezer bent bij boter-kaas-en-eieren, maar alleen als je zeker weet dat je gaat winnen.

Kies de meest geschikte accuracymetriek, precision of recall, om dit voorbeeld af te ronden. Maar onthoud: als je denkt dat je gaat winnen, dan moet je ook echt winnen!

Gebruik rfc, een random forest-classificatiemodel gebouwd op de tic_tac_toe-gegevensset.

Deze oefening maakt deel uit van de cursus

Modelvalidatie in Python

Cursus bekijken

Oefeninstructies

  • Importeer de precision- of recall-metriek uit sklearn. Slechts één methode is juist in deze context.
  • Bereken precision of recall met y_test als de echte waarden en test_predictions als de voorspellingen.
  • Print de eindscore op basis van de door jou gekozen metriek.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

from sklearn.metrics import ____

test_predictions = rfc.predict(X_test)

# Create precision or recall score based on the metric you imported
score = ____(____, ____)

# Print the final result
print("The ____ value is {0:.2f}".format(____))
Code bewerken en uitvoeren