ComenzarEmpieza gratis

Ensamblado con gradient boosting

Boosting es una técnica en la que el error de un predictor se pasa como entrada al siguiente de forma secuencial. Gradient Boosting utiliza un procedimiento de descenso de gradiente para minimizar el log loss en cada árbol de clasificación que se añade uno a uno y que, por sí solos, son modelos de decisión débiles. En regresión, Gradient Boosting es similar, pero usa una función de pérdida como el error cuadrático medio aplicada al descenso de gradiente.

En este ejercicio, vas a crear un modelo Gradient Boosting Classifier y comparar su rendimiento con el Random Forest del ejercicio anterior, que obtuvo una exactitud de 72.5%.

El DataFrame loan_data ya se ha dividido y está disponible en tu espacio de trabajo como X_train, X_test, y_train y y_test.

Este ejercicio forma parte del curso

Practicing Machine Learning Interview Questions in Python

Ver curso

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Import
from sklearn.____ import ____
from sklearn.____ import ____, ____, ____, ____, ____

# Instantiate
gb_model = ____(____=____, learning_rate=___,random_state=123)
Editar y ejecutar código