Precisão vs. recall
As métricas de acurácia que você usa para avaliar seu modelo devem sempre depender da aplicação específica. Neste exemplo, vamos supor que você é muito mau perdedor no jogo da velha, mas apenas quando tem certeza de que vai ganhar.
Escolha a métrica de acurácia mais adequada, precisão ou recall, para concluir este exemplo. Mas lembre-se: se você acha que vai ganhar, é melhor ganhar mesmo!
Use rfc, que é um modelo de classificação de random forest construído com o conjunto de dados tic_tac_toe.
Este exercício faz parte do curso
Validação de Modelos em Python
Instruções do exercício
- Importe a métrica de precisão ou de recall do
sklearn. Apenas um método é correto para o contexto dado. - Calcule a precisão ou o recall usando
y_testcomo valores verdadeiros etest_predictionscomo previsões. - Imprima a pontuação final com base na métrica selecionada.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
from sklearn.metrics import ____
test_predictions = rfc.predict(X_test)
# Create precision or recall score based on the metric you imported
score = ____(____, ____)
# Print the final result
print("The ____ value is {0:.2f}".format(____))