ComeçarComece de graça

Juntando tudo

Muito bem, é hora de reunir tudo o que você aprendeu até aqui! Neste exercício final do curso, você vai combinar seu trabalho dos exercícios anteriores em um pipeline de XGBoost de ponta a ponta para consolidar seu entendimento de pré-processamento e pipelines no XGBoost.

Seu trabalho dos 3 exercícios anteriores, nos quais você pré-processou os dados e configurou seu pipeline, já foi carregado. Sua tarefa é realizar uma busca aleatória e identificar os melhores hiperparâmetros.

Este exercício faz parte do curso

Extreme Gradient Boosting com XGBoost

Ver curso

Instruções do exercício

  • Configure a grade de parâmetros para ajustar 'clf__learning_rate' (de 0.05 a 1 em incrementos de 0.05), 'clf__max_depth' (de 3 a 10 em incrementos de 1) e 'clf__n_estimators' (de 50 a 200 em incrementos de 50).
  • Usando seu pipeline como estimador, execute um RandomizedSearchCV com 2 folds e n_iter igual a 2. Use "roc_auc" como métrica e defina verbose como 1 para tornar a saída mais detalhada. Armazene o resultado em randomized_roc_auc.
  • Ajuste randomized_roc_auc a X e y.
  • Calcule a melhor pontuação e o melhor estimador de randomized_roc_auc.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Editar e executar o código