Ordenar las características más importantes
Entre otras cosas, los Decision Trees son muy populares por su interpretabilidad. Muchos modelos pueden dar predicciones precisas, pero los Decision Trees también pueden cuantificar el efecto de las distintas características sobre el objetivo. Aquí, pueden indicarte qué características tienen un impacto más fuerte o más débil en la decisión de dejar la empresa. En sklearn, puedes obtener esta información usando el atributo feature_importances_.
En este ejercicio, vas a obtener la importancia cuantificada de cada característica, guardarla en un DataFrame de pandas (una tabla en Python) y ordenarla de la más importante a la menos importante. El clasificador Decision Tree model_ best utilizado en los ejercicios anteriores está disponible en tu espacio de trabajo, así como las variables features_test y features_train.
Se ha importado pandas como pd.
Este ejercicio forma parte del curso
Analítica de RR. HH.: Predicción de rotación de empleados en Python
Instrucciones del ejercicio
- Usa el atributo
feature_importances_para calcular las importancias relativas de las características - Crea una lista de características
- Guarda los resultados en un DataFrame usando la función
DataFrame(), donde las características sean filas y sus valores respectivos una columna - Ordena el DataFrame
relative_importancespara tener arriba las características más importantes usando la funciónsort_values()e imprime el resultado
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Calculate feature importances
feature_importances = model_best.____
# Create a list of features: done
feature_list = list(features)
# Save the results inside a DataFrame using feature_list as an index
relative_importances = pd.____(index=____, data=feature_importances, columns=["importance"])
# Sort values to learn most important features
relative_importances.____(by="importance", ascending=False)