Bootstrap-Aggregation (Bagging)
In der letzten Lektion hast du einen ersten Eindruck von Klassifikationsmodellen bekommen, indem du logistische Regression auf Daten mit konstruierten Merkmalen angewendet hast. In Machine-Learning-Interviews lohnt es sich oft, Ensemble-Modelle zu kennen, da sie schwache Lerner kombinieren, um einen starken Lerner zu bilden und so die Modellgenauigkeit zu verbessern.
In dieser Übung startest du mit einem Bagging-Classifier, der eine Stichprobentechnik mit Zurücklegen nutzt, um Zufälligkeit zu bewahren und Overfitting zu reduzieren. Du verwendest Funktionen aus dem Modul sklearn.ensemble, das du in der Video-Übung gesehen hast.
Alle relevanten Pakete wurden bereits für dich importiert:
pandas als pd, train_test_split aus sklearn.model_selection, accuracy_score aus sklearn.metrics, LogisticRegression aus sklearn.linear_model sowie BaggingClassifier und AdaBoostClassifier aus sklearn.ensemble.
Das DataFrame loan_data ist bereits in X_train, X_test, y_train und y_test aufgeteilt.
Diese Übung ist Teil des Kurses
ML-Vorstellungsgespräche in Python üben
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Instantiate bootstrap aggregation model
bagged_model = ____(____=____, random_state=123)