Ajustando eta
É hora de praticar o ajuste de outros hiperparâmetros do XGBoost de verdade e observar o efeito deles no desempenho do modelo! Você vai começar ajustando o "eta", também conhecido como taxa de aprendizado.
A taxa de aprendizado no XGBoost é um parâmetro que pode variar entre 0 e 1. Valores mais altos de "eta" penalizam mais fortemente os pesos das features, impondo uma regularização bem mais intensa.
Este exercício faz parte do curso
Extreme Gradient Boosting com XGBoost
Instruções do exercício
- Crie uma lista chamada
eta_valspara armazenar os seguintes valores de"eta":0.001,0.01e0.1. - Faça um loop
forsobre a sua listaeta_vals. - Em cada iteração do
for, defina a chave"eta"deparamscomo igual acurr_val. Em seguida, execute uma validação cruzada com 3 folds e early stopping (em5rounds),10rounds de boosting, métrica"rmse"eseedigual a123. Garanta que a saída seja um DataFrame. - Adicione o RMSE da última iteração à lista
best_rmse.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create your housing DMatrix: housing_dmatrix
housing_dmatrix = xgb.DMatrix(data=X, label=y)
# Create the parameter dictionary for each tree (boosting round)
params = {"objective":"reg:squarederror", "max_depth":3}
# Create list of eta values and empty list to store final round rmse per xgboost model
____ = [____, ____, ____]
best_rmse = []
# Systematically vary the eta
for curr_val in ____:
params["___"] = curr_val
# Perform cross-validation: cv_results
cv_results = ____
# Append the final round rmse to best_rmse
____.____(____["____"].tail().values[-1])
# Print the resultant DataFrame
print(pd.DataFrame(list(zip(eta_vals, best_rmse)), columns=["eta","best_rmse"]))