CommencerCommencer gratuitement

Régression logistique

Dans cette dernière leçon, vous allez combiner trois algorithmes en un seul modèle grâce au VotingClassifier. Cela permet de tirer parti des forces de chaque modèle, d’améliorer les performances globales et, espérons-le, de détecter davantage de fraudes. Le premier modèle, la régression logistique, présente un rappel légèrement supérieur à celui de notre Random Forest optimal, mais génère beaucoup plus de faux positifs. Vous allez également y ajouter un arbre de décision avec des poids équilibrés. Les données sont déjà divisées en ensembles d’entraînement et de test, c’est‑à‑dire que X_train, y_train, X_test, y_test sont disponibles.

Pour comprendre en quoi le Voting Classifier peut potentiellement améliorer votre modèle initial, commencez par examiner les résultats de la régression logistique seule.

Cet exercice fait partie du cours

Détection de fraude en Python

Afficher le cours

Instructions

  • Définissez un modèle LogisticRegression avec des poids de classe de 1:15 pour les cas de fraude.
  • Ajustez le modèle sur l’ensemble d’entraînement et obtenez les prédictions du modèle.
  • Affichez le rapport de classification et la matrice de confusion.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Define the Logistic Regression model with weights
model = ____(____={____, ____}, random_state=5)

# Get the model results
get_model_results(X_train, y_train, X_test, y_test, model)
Modifier et exécuter le code