Voting Classifier
Kombinieren wir jetzt drei Machine-Learning-Modelle zu einem, um unser Random-Forest-Betrugserkennungsmodell von zuvor zu verbessern. Du kombinierst unser gewohntes Random-Forest-Modell mit der Logistic Regression aus der vorherigen Übung und einem einfachen Decision Tree. Mit der Abkürzung get_model_results() kannst du dir das unmittelbare Ergebnis des Ensemble-Modells anzeigen lassen.
Diese Übung ist Teil des Kurses
Betrugserkennung mit Python
Anleitung zur Übung
- Importiere das Paket für den Voting Classifier.
- Definiere die drei Modelle: die Logistic Regression von zuvor, den Random Forest aus den vorherigen Übungen und einen Decision Tree mit ausgeglichenen Klassen-Gewichten.
- Definiere das Ensemble-Modell, indem du die drei Klassifikatoren mit ihren jeweiligen Labels übergibst.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import the package
from sklearn.ensemble import ____
# Define the three classifiers to use in the ensemble
clf1 = LogisticRegression(class_weight={0:1, 1:15}, random_state=5)
clf2 = ____(class_weight={0:1, 1:12}, criterion='gini', max_depth=8, max_features='log2',
min_samples_leaf=10, n_estimators=30, n_jobs=-1, random_state=5)
clf3 = DecisionTreeClassifier(random_state=5, class_weight="____")
# Combine the classifiers in the ensemble model
ensemble_model = ____(estimators=[('lr', ____), ('rf', ____), ('dt', ____)], voting='hard')
# Get the results
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)