ComenzarEmpieza gratis

Ordenar las características más importantes

Entre otras cosas, los Decision Trees son muy populares por su interpretabilidad. Muchos modelos pueden dar predicciones precisas, pero los Decision Trees también pueden cuantificar el efecto de las distintas características sobre el objetivo. Aquí, pueden indicarte qué características tienen un impacto más fuerte o más débil en la decisión de dejar la empresa. En sklearn, puedes obtener esta información usando el atributo feature_importances_.

En este ejercicio, vas a obtener la importancia cuantificada de cada característica, guardarla en un DataFrame de pandas (una tabla en Python) y ordenarla de la más importante a la menos importante. El clasificador Decision Tree model_ best utilizado en los ejercicios anteriores está disponible en tu espacio de trabajo, así como las variables features_test y features_train.

Se ha importado pandas como pd.

Este ejercicio forma parte del curso

Analítica de RR. HH.: Predicción de rotación de empleados en Python

Ver curso

Instrucciones del ejercicio

  • Usa el atributo feature_importances_ para calcular las importancias relativas de las características
  • Crea una lista de características
  • Guarda los resultados en un DataFrame usando la función DataFrame(), donde las características sean filas y sus valores respectivos una columna
  • Ordena el DataFrame relative_importances para tener arriba las características más importantes usando la función sort_values() e imprime el resultado

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Calculate feature importances
feature_importances = model_best.____

# Create a list of features: done
feature_list = list(features)

# Save the results inside a DataFrame using feature_list as an index
relative_importances = pd.____(index=____, data=feature_importances, columns=["importance"])

# Sort values to learn most important features
relative_importances.____(by="importance", ascending=False)
Editar y ejecutar código