Precision vs. recall
Le metriche di accuratezza che usi per valutare il tuo modello dovrebbero sempre dipendere dall’applicazione specifica. In questo esempio, immaginiamo che tu non sopporti perdere a Tris, ma solo quando sei certo di stare per vincere.
Scegli la metrica di accuratezza più adatta, tra precision e recall, per completare questo esempio. Ma ricorda: se pensi che stai per vincere, allora devi vincere!
Usa rfc, un modello di classificazione random forest costruito sul dataset tic_tac_toe.
Questo esercizio fa parte del corso
Validazione dei modelli in Python
Istruzioni dell'esercizio
- Importa da
sklearnla metrica precision o recall. Solo un metodo è corretto nel contesto dato. - Calcola precision o recall usando
y_testper i valori veri etest_predictionsper le previsioni. - Stampa il punteggio finale in base alla metrica scelta.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
from sklearn.metrics import ____
test_predictions = rfc.predict(X_test)
# Create precision or recall score based on the metric you imported
score = ____(____, ____)
# Print the final result
print("The ____ value is {0:.2f}".format(____))