Pas de gewichten aan in de Voting Classifier
Je hebt net gezien dat je met de Voting Classifier je fraudedetectie kunt verbeteren door goede eigenschappen van meerdere modellen te combineren. Laten we nu proberen de gewichten aan te passen die we aan deze modellen geven. Door gewichten te verhogen of te verlagen kun je spelen met hoeveel nadruk je een bepaald model geeft ten opzichte van de rest. Dit is handig wanneer een bepaald model over het algemeen beter presteert dan de andere, maar je alsnog aspecten van de rest wilt combineren om je resultaat verder te verbeteren.
Voor deze oefening is de data al opgesplitst in een trainings- en testset, en clf1, clf2 en clf3 zijn beschikbaar en gedefinieerd zoals eerder: respectievelijk Logistic Regression, het Random Forest-model en de Decision Tree.
Deze oefening maakt deel uit van de cursus
Fraudedetectie in Python
Oefeninstructies
- Definieer een ensemblemethode waarbij je de tweede classifier (clf2) zwaarder weegt met 4 tegen 1 ten opzichte van de rest van de classifiers.
- Fit het model op de trainings- en testset en haal de voorspellingen
predictedop uit het ensemblemodel. - Print de prestatiemetrics; dit staat al klaar om uit te voeren.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Define the ensemble model
ensemble_model = ____(estimators=[('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='soft', weights=[____, ____, ____], flatten_transform=True)
# Get results
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)