CommencerCommencer gratuitement

Agrégation par bootstrap (bagging)

Dans la leçon précédente, vous avez eu un premier aperçu des modèles de classification en appliquant une régression logistique sur des données avec des variables construites. En entretien Machine Learning, il est parfois utile de connaître les modèles d’ensemble, car ils combinent des apprenants faibles pour créer un apprenant fort qui améliore la précision du modèle.

Dans cet exercice, vous allez commencer par appliquer un classificateur par bagging, qui utilise une technique d’échantillonnage avec remise afin de préserver l’aléa et de réduire le surapprentissage. Vous utiliserez des fonctions du module sklearn.ensemble que vous avez vu dans la vidéo.

Tous les packages nécessaires ont été importés pour vous : pandas sous pd, train_test_split depuis sklearn.model_selection, accuracy_score depuis sklearn.metrics, LogisticRegression depuis sklearn.linear_model, et BaggingClassifier ainsi que AdaBoostClassifier depuis sklearn.ensemble.

Le DataFrame loan_data est déjà divisé en X_train, X_test, y_train et y_test.

Cet exercice fait partie du cours

S’entraîner aux questions d’entretien en Machine Learning avec Python

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Instantiate bootstrap aggregation model
bagged_model = ____(____=____, random_state=123)
Modifier et exécuter le code