Précision vs. rappel
Les métriques de justesse utilisées pour évaluer votre modèle doivent toujours dépendre de l’application visée. Dans cet exemple, supposons que vous détestiez perdre au morpion, mais seulement lorsque vous êtes certain de gagner.
Choisissez la métrique la plus appropriée, précision ou rappel, pour terminer cet exercice. Mais souvenez-vous : si vous pensez que vous allez gagner, il faut gagner !
Utilisez rfc, un modèle de classification par forêts aléatoires entraîné sur l’ensemble de données tic_tac_toe.
Cet exercice fait partie du cours
Validation des modèles en Python
Instructions
- Importez la métrique de précision ou de rappel depuis
sklearn. Une seule méthode convient dans ce contexte. - Calculez la précision ou le rappel en utilisant
y_testpour les vraies valeurs ettest_predictionspour les prédictions. - Affichez le score final basé sur la métrique que vous avez choisie.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
from sklearn.metrics import ____
test_predictions = rfc.predict(X_test)
# Create precision or recall score based on the metric you imported
score = ____(____, ____)
# Print the final result
print("The ____ value is {0:.2f}".format(____))