ComenzarEmpieza gratis

Más allá de la precisión

En este ejercicio, para ir más allá de mirar solo la precisión, vas a evaluar el AUC de la curva ROC para un modelo básico de árbol de decisión. Recuerda que la comparación de referencia para un clasificador aleatorio es un AUC de 0.5, así que deberías obtener una puntuación mayor que 0.5.

X está disponible como el DataFrame con las características y y está disponible como un DataFrame con los valores objetivo. Tanto sklearn como pandas (como pd) también están disponibles en tu espacio de trabajo.

Usaremos esta configuración para analizar el AUC de nuestra curva ROC.

Este ejercicio forma parte del curso

Predicción del CTR con Machine Learning en Python

Ver curso

Instrucciones del ejercicio

  • Divide los datos en conjuntos de entrenamiento y prueba.
  • Ajusta el clasificador con los datos de entrenamiento para hacer predicciones sobre los datos de prueba usando predict_proba() y predict().
  • Evalúa el AUC bajo la curva ROC usando la función roc_curve() sobre y_test mediante roc_curve(y_test, y_score[:, 1]).

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Training and testing
X_train, X_test, y_train, y_test = \
	____(X, y, test_size = .2, random_state = 0)

# Create decision tree classifier
clf = DecisionTreeClassifier()

# Train classifier - predict probability score and label
y_score = clf.fit(____, ____).predict_proba(____) 
y_pred = clf.fit(____, ____).predict(____) 

# Get ROC curve metrics
fpr, tpr, thresholds = ____(____, y_score[:, 1])
roc_auc = auc(fpr, tpr)
print(roc_auc)
Editar y ejecutar código