LoslegenKostenlos loslegen

Logistische Regression

In dieser letzten Lektion wirst du drei Algorithmen kombinieren und mit dem VotingClassifier zu einem Modell zusammenführen. So profitierst du von den unterschiedlichen Stärken aller Modelle, hoffentlich verbesserst du die Gesamtleistung und erkennst mehr Betrugsfälle. Das erste Modell, die Logistische Regression, hat einen etwas höheren Recall als unser optimales Random-Forest-Modell, erzeugt aber deutlich mehr False Positives. Außerdem fügst du einen Decision Tree mit ausbalancierten Gewichten hinzu. Die Daten sind bereits in Trainings- und Testmenge aufgeteilt, d. h. X_train, y_train, X_test, y_test sind verfügbar.

Um zu verstehen, wie der Voting Classifier dein ursprüngliches Modell potenziell verbessern kann, solltest du dir zuerst die Einzel-Ergebnisse des Modells Logistische Regression ansehen.

Diese Übung ist Teil des Kurses

Betrugserkennung mit Python

Kurs anzeigen

Anleitung zur Übung

  • Definiere ein LogisticRegression-Modell mit Klassen-Gewichtungen von 1:15 für die Betrugsfälle.
  • Trainiere das Modell auf dem Trainingssatz und erhalte die Modellvorhersagen.
  • Gib den Classification Report und die Confusion Matrix aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Define the Logistic Regression model with weights
model = ____(____={____, ____}, random_state=5)

# Get the model results
get_model_results(X_train, y_train, X_test, y_test, model)
Code bearbeiten und ausführen