Diese Übung ist Teil des Kurses
Klassifizierungs- und Regressionsbäume (CART) sind eine Gruppe von überwachten Lernmodellen, die für Klassifizierungs- und Regressionsprobleme verwendet werden. In diesem Kapitel lernst du den CART Algorithmus kennen.
Der Kompromiss zwischen Verzerrung und Varianz ist eines der grundlegenden Konzepte beim überwachten maschinellen Lernen. In diesem Kapitel erfährst du, wie du die Probleme von Overfitting und Underfitting diagnostizieren kannst. Außerdem lernst du das Konzept des Ensembling kennen, bei dem die Vorhersagen mehrerer Modelle zusammengefasst werden, um robustere Vorhersagen zu erhalten.
Bagging ist eine Ensemble-Methode, bei der derselbe Algorithmus viele Male mit verschiedenen Teilmengen aus den Trainingsdaten trainiert wird. In diesem Kapitel erfährst du, wie du mit Hilfe von Bagging ein Baumensemble erstellen kannst. Du erfährst auch, wie der Random-Forest-Algorithmus durch Randomisierung auf der Ebene der einzelnen Splits in den Bäumen, die das Ensemble bilden, zu einer weiteren Diversität des Ensembles führen kann.
Aktuelle Übung
Boosting bezieht sich auf eine Ensemble-Methode, bei der mehrere Modelle nacheinander trainiert werden, wobei jedes Modell aus den Fehlern seiner Vorgänger lernt. In diesem Kapitel lernst du die beiden Boosting-Methoden AdaBoost und Gradient Boosting kennen.
Die Hyperparameter eines maschinellen Lernmodells sind Parameter, die nicht aus den Daten gelernt werden. Sie sollten festgelegt werden, bevor das Modell an die Trainingsmenge angepasst wird. In diesem Kapitel erfährst du, wie du die Hyperparameter eines baumbasierten Modells mithilfe der Kreuzvalidierung durch Rastersuche abstimmst.