or
Diese Übung ist Teil des Kurses
Classification and Regression Trees (CART) sind eine Gruppe überwachter Lernmodelle für Klassifikations- und Regressionsaufgaben. In diesem Kapitel lernst du den CART-Algorithmus kennen.
Der Bias-Variance-Trade-off gehört zu den Grundkonzepten des überwachten maschinellen Lernens. In diesem Kapitel lernst du, Overfitting und Underfitting zu erkennen. Außerdem lernst du das Konzept des Ensembling kennen, bei dem die Vorhersagen mehrerer Modelle aggregiert werden, um robustere Prognosen zu erzeugen.
Bagging ist eine Ensemble-Methode, bei der derselbe Algorithmus vielfach auf unterschiedlichen, aus den Trainingsdaten gezogenen Teilmengen trainiert wird. In diesem Kapitel erfährst du, wie sich mit Bagging ein Baum-Ensemble aufbauen lässt. Du lernst außerdem, wie der Random-Forests-Algorithmus durch zusätzliche Randomisierung bei jeder Aufteilung in den Bäumen des Ensembles noch mehr Vielfalt schafft.
Boosting bezeichnet eine Ensemble-Methode, bei der mehrere Modelle nacheinander trainiert werden, wobei jedes Modell aus den Fehlern seiner Vorgänger lernt. In diesem Kapitel lernst du die beiden Boosting-Methoden AdaBoost und Gradient Boosting kennen.
Aktuelle Übung
Die Hyperparameter eines Machine-Learning-Modells sind Parameter, die nicht aus Daten gelernt werden. Sie werden vor dem Fitten des Modells auf den Trainingssatz festgelegt. In diesem Kapitel lernst du, wie du die Hyperparameter eines baumbasierten Modells mithilfe von Grid-Search-Cross-Validation abstimmst.