ComeçarComece de graça

XGBoost

Neste exercício, você vai praticar mais uma técnica de boosting. Conhecido como a nova rainha do Machine Learning, o XGBoost é um pacote otimizado de gradient boosting distribuído que está "dominando o mundo!" Por isso, é bem provável que ele apareça em uma entrevista de Machine Learning ou, no mínimo, vale a pena você mencioná-lo em alguma resposta para demonstrar seu conhecimento sobre algoritmos de ponta e de alta precisão.

O argumento learning_rate=0.1 especifica o tamanho do passo a cada iteração na busca pelo mínimo global, e max_depth controla o tamanho (profundidade) das árvores de decisão, aqui igual a 3.

Todos os pacotes relevantes já foram importados para você: pandas como pd, train_test_split de sklearn.model_selection, accuracy_score de sklearn.linear_model, LogisticRegression de sklearn.linear_model, BaggingClassifier e AdaBoostClassifier de sklearn.ensemble, e XGBClassifier de xgboost.

O DataFrame loan_data já foi dividido em X_train, X_test, y_train e y_test.

Este exercício faz parte do curso

Praticando perguntas de entrevista de Machine Learning em Python

Ver curso

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Instantiate
xgb = ____(____=____, random_state=123, learning_rate=0.1, max_depth=3)
Editar e executar o código