or
Este exercício faz parte do curso
Você tem dificuldade para definir qual dos modelos que construiu é o melhor para o seu problema? Em vez disso, pare com isso e use todos eles! Neste capítulo, você vai aprender a combinar vários modelos em um só usando "Voting" e "Averaging". Você vai usá-los para prever as avaliações de apps na Google Play Store, se um Pokémon é lendário ou não, e quais personagens vão morrer em Game of Thrones!
Exercício atual
Bagging é o método de ensemble por trás de algoritmos poderosos de machine learning, como random forests. Neste capítulo, você vai aprender a teoria por trás dessa técnica e construir seus próprios modelos de bagging usando o scikit-learn.
Boosting é uma classe de algoritmos de ensemble learning que inclui modelos premiados, como o AdaBoost. Neste capítulo, você vai aprender sobre esse modelo premiado e usá-lo para prever a receita de filmes vencedores de prêmios! Você também vai aprender sobre algoritmos de gradient boosting como CatBoost e XGBoost.
Prepare-se para ver como tudo se empilha! Neste capítulo final, você vai aprender sobre o método de ensemble stacking. Você vai ver como implementá-lo usando o scikit-learn e também a biblioteca mlxtend! Você vai aplicar stacking para prever a comestibilidade de cogumelos da América do Norte e revisitar as avaliações de apps do Google com essa abordagem mais avançada.