Ajuster les pondérations dans le Voting Classifier
Vous venez de voir que le Voting Classifier permet d’améliorer vos performances de détection de fraude en combinant les points forts de plusieurs modèles. Essayons maintenant d’ajuster les pondérations attribuées à ces modèles. En augmentant ou en diminuant ces pondérations, vous pouvez moduler l’importance donnée à un modèle particulier par rapport aux autres. C’est utile lorsqu’un modèle a globalement de meilleures performances, mais que vous souhaitez tout de même combiner certains atouts des autres pour améliorer encore vos résultats.
Dans cet exercice, les données sont déjà divisées en ensembles d’entraînement et de test, et clf1, clf2 et clf3 sont disponibles et définis comme précédemment : il s’agit respectivement de la régression logistique, du modèle Random Forest et de l’arbre de décision.
Cet exercice fait partie du cours
Détection de fraude en Python
Instructions
- Définissez une méthode d’ensemble où vous surpondez le deuxième classifieur (clf2) avec un ratio de 4 pour 1 par rapport aux autres classifieurs.
- Ajustez le modèle sur les ensembles d’entraînement et de test, et obtenez les prédictions
predictedà partir du modèle d’ensemble. - Affichez les métriques de performance ; c’est prêt pour vous, vous pouvez l’exécuter.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define the ensemble model
ensemble_model = ____(estimators=[('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='soft', weights=[____, ____, ____], flatten_transform=True)
# Get results
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)