Juntando tudo
Muito bem, é hora de reunir tudo o que você aprendeu até aqui! Neste exercício final do curso, você vai combinar seu trabalho dos exercícios anteriores em um pipeline de XGBoost de ponta a ponta para consolidar seu entendimento de pré-processamento e pipelines no XGBoost.
Seu trabalho dos 3 exercícios anteriores, nos quais você pré-processou os dados e configurou seu pipeline, já foi carregado. Sua tarefa é realizar uma busca aleatória e identificar os melhores hiperparâmetros.
Este exercício faz parte do curso
Extreme Gradient Boosting com XGBoost
Instruções do exercício
- Configure a grade de parâmetros para ajustar
'clf__learning_rate'(de0.05a1em incrementos de0.05),'clf__max_depth'(de3a10em incrementos de1) e'clf__n_estimators'(de50a200em incrementos de50). - Usando seu
pipelinecomo estimador, execute umRandomizedSearchCVcom 2 folds en_iterigual a2. Use"roc_auc"como métrica e definaverbosecomo1para tornar a saída mais detalhada. Armazene o resultado emrandomized_roc_auc. - Ajuste
randomized_roc_aucaXey. - Calcule a melhor pontuação e o melhor estimador de
randomized_roc_auc.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)