ComenzarEmpieza gratis

Umbral por defecto

Te gustaría confirmar que DecisionTreeClassifier() usa el mismo umbral de clasificación por defecto mencionado en la lección anterior, concretamente 0.5. Te resulta raro que todos los clasificadores usen el mismo umbral. ¡Vamos a comprobarlo! Ya tienes cargado un clasificador de árbol de decisión ajustado clf, así como los datos de entrenamiento y prueba con sus nombres habituales: X_train, X_test, y_train y y_test. Tendrás que extraer puntuaciones de probabilidad del clasificador usando el método .predict_proba().

Este ejercicio forma parte del curso

Diseño de flujos de trabajo de Machine Learning en Python

Ver curso

Instrucciones del ejercicio

  • Genera las puntuaciones para los ejemplos de prueba usando el clasificador precargado clf.
  • Ahora extrae etiquetas a partir de esas puntuaciones. Recuerda que tienes un par de puntuaciones por ejemplo, no una sola, y el segundo elemento es la probabilidad de la clase positiva.
  • Ahora etiqueta los datos de prueba usando el método estándar .predict().
  • Por último, compara con las predicciones que obtuviste antes. ¿Son idénticas?

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Score the test data using the given classifier
scores = clf.____(____)

# Get labels from the scores using the default threshold
preds = [s[____] > ____ for s in scores]

# Use the predict method to label the test data again
preds_default = clf.____(____)

# Compare the two sets of predictions
____(preds == preds_default)
Editar y ejecutar código