Voting Classifier
Allons maintenant combiner trois modèles de Machine Learning en un seul afin d’améliorer notre modèle de détection de fraude Random Forest vu précédemment. Vous combinerez notre Random Forest habituel, la régression logistique de l’exercice précédent et un arbre de décision simple. Vous pouvez utiliser le raccourci get_model_results() pour voir immédiatement le résultat du modèle d’ensemble.
Cet exercice fait partie du cours
Détection de fraude en Python
Instructions
- Importez le module Voting Classifier.
- Définissez les trois modèles : utilisez la régression logistique d’avant, le Random Forest des exercices précédents et un arbre de décision avec des poids de classes équilibrés.
- Définissez le modèle d’ensemble en passant les trois classifieurs avec leurs libellés respectifs.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Import the package
from sklearn.ensemble import ____
# Define the three classifiers to use in the ensemble
clf1 = LogisticRegression(class_weight={0:1, 1:15}, random_state=5)
clf2 = ____(class_weight={0:1, 1:12}, criterion='gini', max_depth=8, max_features='log2',
min_samples_leaf=10, n_estimators=30, n_jobs=-1, random_state=5)
clf3 = DecisionTreeClassifier(random_state=5, class_weight="____")
# Combine the classifiers in the ensemble model
ensemble_model = ____(estimators=[('lr', ____), ('rf', ____), ('dt', ____)], voting='hard')
# Get the results
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)