or
Diese Übung ist Teil des Kurses
Fällt es dir schwer zu entscheiden, welches deiner Modelle am besten zu deinem Problem passt? Lass das – und nutze einfach alle! In diesem Kapitel lernst du, wie du mehrere Modelle mit "Voting" und "Averaging" zu einem kombinierst. Damit sagst du Bewertungen von Apps im Google Play Store voraus, ob ein Pokémon legendär ist oder welche Figuren in Game of Thrones sterben werden!
Aktuelle Übung
Bagging ist die Ensemble-Methode hinter leistungsstarken Machine-Learning-Algorithmen wie Random Forests. In diesem Kapitel lernst du die Theorie hinter dieser Technik kennen und baust eigene Bagging-Modelle mit scikit-learn.
Boosting ist eine Klasse von Ensemble-Lernalgorithmen, zu der preisgekrönte Modelle wie AdaBoost gehören. In diesem Kapitel lernst du dieses ausgezeichnete Modell kennen und nutzt es, um die Einnahmen preisgekrönter Filme vorherzusagen! Außerdem lernst du Gradient-Boosting-Algorithmen wie CatBoost und XGBoost kennen.
Mach dich bereit zu sehen, was sich stapeln lässt! In diesem letzten Kapitel lernst du die Ensemble-Methode Stacking kennen. Du setzt sie mit scikit-learn sowie mit der mlxtend-Bibliothek um! Du wendest Stacking an, um die Essbarkeit nordamerikanischer Pilze vorherzusagen und kehrst mit diesem fortgeschrittenen Ansatz zu den Bewertungen von Google-Apps zurück.