or
Cet exercice fait partie du cours
Avez-vous du mal à déterminer lequel des modèles que vous avez construits est le meilleur pour votre problème ? Ne vous obstinez pas : utilisez-les tous ! Dans ce chapitre, vous apprendrez à combiner plusieurs modèles en un seul grâce au « Voting » et à l’« Averaging ». Vous les utiliserez pour prédire les notes d’apps sur le Google Play Store, déterminer si un Pokémon est légendaire, et identifier quels personnages vont mourir dans Game of Thrones !
Exercice en cours
Le bagging est la méthode d’ensemble qui se cache derrière des algorithmes de Machine Learning puissants comme les forêts aléatoires. Dans ce chapitre, vous verrez la théorie de cette technique et construirez vos propres modèles de bagging avec scikit-learn.
Le boosting est une famille d’algorithmes d’ensemble qui inclut des modèles primés comme AdaBoost. Dans ce chapitre, vous étudierez ce modèle récompensé et l’utiliserez pour prédire les recettes de films primés ! Vous découvrirez aussi des algorithmes de gradient boosting comme CatBoost et XGBoost.
Prêt à voir comment tout s’empile ? Dans ce dernier chapitre, vous découvrirez la méthode d’ensemble appelée stacking. Vous apprendrez à l’implémenter avec scikit-learn ainsi qu’avec la bibliothèque mlxtend ! Vous appliquerez le stacking pour prédire la comestibilité des champignons nord-américains et vous reviendrez aux notes des apps Google avec cette approche plus avancée.