XG Boost
Dans cet exercice, vous allez pratiquer une autre technique de boosting. Surnommé la nouvelle reine du Machine Learning, XGBoost est une bibliothèque de gradient boosting distribuée et optimisée qui est « en train de conquérir le monde ! » Cela dit, il est probable qu’on vous en parle lors d’un entretien en Machine Learning ou, au minimum, il serait à votre avantage d’en parler dans l’une de vos réponses pour montrer votre connaissance d’algorithmes de pointe, très précis.
L’argument learning_rate=0.1 indique la taille du pas à chaque itération lors de la recherche du minimum global, et max_depth contrôle la taille (profondeur) des arbres de décision, ici 3.
Tous les packages nécessaires ont été importés pour vous :
pandas sous le nom pd, train_test_split depuis sklearn.model_selection, accuracy_score depuis sklearn.linear_model, LogisticRegression depuis sklearn.linear_model, BaggingClassifier et AdaBoostClassifier depuis sklearn.ensemble, et XGBClassifier depuis xgboost.
Le DataFrame loan_data est déjà scindé en X_train, X_test, y_train et y_test.
Cet exercice fait partie du cours
S’entraîner aux questions d’entretien en Machine Learning avec Python
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Instantiate
xgb = ____(____=____, random_state=123, learning_rate=0.1, max_depth=3)