XG Boost
En este ejercicio vas a practicar otra técnica de boosting. Considerado la nueva reina del Machine Learning, XGBoost es un paquete optimizado de gradient boosting distribuido que está "¡arrasando en todo el mundo!" Dicho esto, es muy probable que te pregunten por él en una entrevista de Machine Learning o, como mínimo, te conviene mencionarlo en alguna respuesta para demostrar que conoces algoritmos de vanguardia con alta precisión.
El argumento learning_rate=0.1 especifica el tamaño del paso en cada iteración mientras se busca el mínimo global, y max_depth controla el tamaño (profundidad) de los árboles de decisión, aquí 3.
Ya tienes importados todos los paquetes relevantes:
pandas como pd, train_test_split de sklearn.model_selection, accuracy_score de sklearn.linear_model, LogisticRegression de sklearn.linear_model, BaggingClassifier y AdaBoostClassifier de sklearn.ensemble, y XGBClassifier de xgboost.
El DataFrame loan_data ya está dividido en X_train, X_test, y_train y y_test.
Este ejercicio forma parte del curso
Practicing Machine Learning Interview Questions in Python
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Instantiate
xgb = ____(____=____, random_state=123, learning_rate=0.1, max_depth=3)