Gradient-Boosting-Ensemble
Boosting ist eine Technik, bei der der Fehler eines Prädiktors nacheinander als Input an den nächsten weitergegeben wird. Gradient Boosting nutzt ein Gradientenabstiegsverfahren, um den Log-Loss für jeden nachfolgenden, einzeln schwachen Entscheidungsbaum zu minimieren, der jeweils einzeln hinzugefügt wird. Gradient Boosting für Regression funktioniert ähnlich, verwendet jedoch eine Verlustfunktion wie den mittleren quadratischen Fehler im Rahmen des Gradientenabstiegs.
In dieser Übung erstellst du ein Gradient Boosting Classifier-Modell und vergleichst seine Leistung mit dem Random Forest aus der vorherigen Übung, der eine Genauigkeit von 72,5 % erzielt hat.
Der DataFrame loan_data wurde bereits gesplittet und steht dir in deinem Workspace als X_train, X_test, y_train und y_test zur Verfügung.
Diese Übung ist Teil des Kurses
ML-Vorstellungsgespräche in Python üben
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import
from sklearn.____ import ____
from sklearn.____ import ____, ____, ____, ____, ____
# Instantiate
gb_model = ____(____=____, learning_rate=___,random_state=123)