Conjunto de modelos com gradient boosting
Boosting é uma técnica em que o erro de um preditor é passado como entrada para o próximo de forma sequencial. O Gradient Boosting usa um procedimento de descida do gradiente para minimizar a log loss a cada árvore de classificação adicionada, uma de cada vez, que por si só são modelos fracos de decisão. O Gradient Boosting para regressão é similar, mas usa uma função de perda como o erro quadrático médio aplicada à descida do gradiente.
Neste exercício, você vai criar um modelo Gradient Boosting Classifier e comparar seu desempenho com o Random Forest do exercício anterior, que obteve uma acurácia de 72,5%.
O DataFrame loan_data já foi dividido e está disponível no seu workspace como X_train, X_test, y_train e y_test.
Este exercício faz parte do curso
Praticando perguntas de entrevista de Machine Learning em Python
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Import
from sklearn.____ import ____
from sklearn.____ import ____, ____, ____, ____, ____
# Instantiate
gb_model = ____(____=____, learning_rate=___,random_state=123)