Aan de slagGa gratis aan de slag

Logistic Regression

In deze laatste les combineer je drie algoritmen in één model met de VotingClassifier. Zo profiteer je van de sterke punten van alle modellen en verbeter je hopelijk de algehele prestaties en detecteer je meer fraude. Het eerste model, de Logistic Regression, heeft een iets hogere recall-score dan ons optimale Random Forest-model, maar geeft veel meer false positives. Je voegt ook een Decision Tree met gebalanceerde gewichten toe. De data is al opgesplitst in een trainings- en testset, dus X_train, y_train, X_test, y_test zijn beschikbaar.

Om te begrijpen hoe de VotingClassifier je oorspronkelijke model mogelijk kan verbeteren, bekijk je eerst de losse resultaten van het Logistic Regression-model.

Deze oefening maakt deel uit van de cursus

Fraudedetectie in Python

Cursus bekijken

Oefeninstructies

  • Definieer een LogisticRegression-model met klassengewichten van 1:15 voor de fraudecases.
  • Fit het model op de trainingsset en verkrijg de modelvoorspellingen.
  • Print het classification report en de confusion matrix.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Define the Logistic Regression model with weights
model = ____(____={____, ____}, random_state=5)

# Get the model results
get_model_results(X_train, y_train, X_test, y_test, model)
Code bewerken en uitvoeren