or
Diese Übung ist Teil des Kurses
Klassifikations- und Regressionsbäume (CART) sind eine Klasse überwachter Lernmodelle für Klassifikations- und Regressionsaufgaben. In diesem Kapitel lernst du den CART-Algorithmus kennen.
Der Bias-Variance-Trade-off gehört zu den grundlegenden Konzepten des überwachten maschinellen Lernens. In diesem Kapitel lernst du, Überanpassung (Overfitting) und Unteranpassung (Underfitting) zu diagnostizieren. Außerdem bekommst du eine Einführung in Ensembling, bei dem die Vorhersagen mehrerer Modelle aggregiert werden, um robustere Vorhersagen zu erhalten.
Bagging ist eine Ensemblemethode, bei der derselbe Algorithmus mehrfach auf unterschiedlichen, aus den Trainingsdaten gezogenen Stichproben trainiert wird. In diesem Kapitel verstehst du, wie sich mit Bagging ein Baum-Ensemble aufbauen lässt. Außerdem lernst du, wie der Random-Forests-Algorithmus durch zusätzliche Randomisierung bei jedem Split in den Bäumen des Ensembles zu noch mehr Vielfalt führt.
Aktuelle Übung
Boosting bezeichnet eine Ensemblemethode, bei der mehrere Modelle sequenziell trainiert werden und jedes Modell aus den Fehlern seiner Vorgänger lernt. In diesem Kapitel lernst du die beiden Boosting-Methoden AdaBoost und Gradient Boosting kennen.
Die Hyperparameter eines Machine-Learning-Modells werden nicht aus Daten gelernt. Sie werden festgelegt, bevor das Modell auf den Trainingssatz angepasst wird. In diesem Kapitel lernst du, die Hyperparameter eines baumbasierten Modells mithilfe von Grid-Search-Cross-Validation zu optimieren.