IniziaInizia gratis

Precision vs. recall

Le metriche di accuratezza che usi per valutare il tuo modello dovrebbero sempre dipendere dall’applicazione specifica. In questo esempio, immaginiamo che tu non sopporti perdere a Tris, ma solo quando sei certo di stare per vincere.

Scegli la metrica di accuratezza più adatta, tra precision e recall, per completare questo esempio. Ma ricorda: se pensi che stai per vincere, allora devi vincere!

Usa rfc, un modello di classificazione random forest costruito sul dataset tic_tac_toe.

Questo esercizio fa parte del corso

Validazione dei modelli in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Importa da sklearn la metrica precision o recall. Solo un metodo è corretto nel contesto dato.
  • Calcola precision o recall usando y_test per i valori veri e test_predictions per le previsioni.
  • Stampa il punteggio finale in base alla metrica scelta.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

from sklearn.metrics import ____

test_predictions = rfc.predict(X_test)

# Create precision or recall score based on the metric you imported
score = ____(____, ____)

# Print the final result
print("The ____ value is {0:.2f}".format(____))
Modifica ed esegui il codice