Bootstrap aggregatie (bagging)
In de vorige les maakte je kort kennis met classificatiemodellen door logistische regressie toe te passen op data met geconstrueerde features. In Machine Learning-sollicitaties is het soms nuttig om ensemblemodellen te kennen, omdat ze zwakke leerders combineren tot een sterke leerder die de nauwkeurigheid van het model verbetert.
In deze oefening ga je aan de slag met een bagging-classifier, die een steekproeftechniek met teruglegging gebruikt om willekeur te behouden en overfitting te verminderen. Je gebruikt functies uit de module sklearn.ensemble, die je in de video-oefening hebt gezien.
Alle relevante pakketten zijn al voor je geïmporteerd:
pandas als pd, train_test_split uit sklearn.model_selection, accuracy_score uit sklearn.metrics, LogisticRegression uit sklearn.linear_model, en BaggingClassifier en AdaBoostClassifier uit sklearn.ensemble.
De DataFrame loan_data is al opgesplitst in X_train, X_test, y_train en y_test.
Deze oefening maakt deel uit van de cursus
Machine Learning-sollicitatievragen oefenen in Python
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Instantiate bootstrap aggregation model
bagged_model = ____(____=____, random_state=123)