ComenzarEmpieza gratis

XG Boost

En este ejercicio vas a practicar otra técnica de boosting. Considerado la nueva reina del Machine Learning, XGBoost es un paquete optimizado de gradient boosting distribuido que está "¡arrasando en todo el mundo!" Dicho esto, es muy probable que te pregunten por él en una entrevista de Machine Learning o, como mínimo, te conviene mencionarlo en alguna respuesta para demostrar que conoces algoritmos de vanguardia con alta precisión.

El argumento learning_rate=0.1 especifica el tamaño del paso en cada iteración mientras se busca el mínimo global, y max_depth controla el tamaño (profundidad) de los árboles de decisión, aquí 3.

Ya tienes importados todos los paquetes relevantes: pandas como pd, train_test_split de sklearn.model_selection, accuracy_score de sklearn.linear_model, LogisticRegression de sklearn.linear_model, BaggingClassifier y AdaBoostClassifier de sklearn.ensemble, y XGBClassifier de xgboost.

El DataFrame loan_data ya está dividido en X_train, X_test, y_train y y_test.

Este ejercicio forma parte del curso

Practicing Machine Learning Interview Questions in Python

Ver curso

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Instantiate
xgb = ____(____=____, random_state=123, learning_rate=0.1, max_depth=3)
Editar y ejecutar código