Más allá de la precisión
En este ejercicio, para ir más allá de mirar solo la precisión, vas a evaluar el AUC de la curva ROC para un modelo básico de árbol de decisión. Recuerda que la comparación de referencia para un clasificador aleatorio es un AUC de 0.5, así que deberías obtener una puntuación mayor que 0.5.
X está disponible como el DataFrame con las características y y está disponible como un DataFrame con los valores objetivo. Tanto sklearn como pandas (como pd) también están disponibles en tu espacio de trabajo.
Usaremos esta configuración para analizar el AUC de nuestra curva ROC.
Este ejercicio forma parte del curso
Predicción del CTR con Machine Learning en Python
Instrucciones del ejercicio
- Divide los datos en conjuntos de entrenamiento y prueba.
- Ajusta el clasificador con los datos de entrenamiento para hacer predicciones sobre los datos de prueba usando
predict_proba()ypredict(). - Evalúa el AUC bajo la curva ROC usando la función
roc_curve()sobrey_testmedianteroc_curve(y_test, y_score[:, 1]).
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Training and testing
X_train, X_test, y_train, y_test = \
____(X, y, test_size = .2, random_state = 0)
# Create decision tree classifier
clf = DecisionTreeClassifier()
# Train classifier - predict probability score and label
y_score = clf.fit(____, ____).predict_proba(____)
y_pred = clf.fit(____, ____).predict(____)
# Get ROC curve metrics
fpr, tpr, thresholds = ____(____, y_score[:, 1])
roc_auc = auc(fpr, tpr)
print(roc_auc)