Regola i pesi nel Voting Classifier
Hai appena visto che il Voting Classifier ti permette di migliorare le prestazioni nel rilevamento delle frodi combinando i punti di forza di più modelli. Ora proviamo a regolare i pesi che diamo a questi modelli. Aumentando o diminuendo i pesi puoi decidere quanta enfasi dare a un modello rispetto agli altri. Questo è utile quando un determinato modello ha prestazioni complessivamente migliori, ma vuoi comunque combinare aspetti degli altri per migliorare ulteriormente i risultati.
Per questo esercizio i dati sono già suddivisi in training set e test set, e clf1, clf2 e clf3 sono disponibili e definiti come prima, cioè rispettivamente Logistic Regression, modello Random Forest e Decision Tree.
Questo esercizio fa parte del corso
Rilevamento delle frodi in Python
Istruzioni dell'esercizio
- Definisci un metodo ensemble in cui dai più peso al secondo classificatore (clf2) con un rapporto 4 a 1 rispetto agli altri classificatori.
- Allena il modello sul training e test set e ottieni le predizioni
predicteddal modello ensemble. - Stampa le metriche di prestazione: è già tutto pronto per essere eseguito.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Define the ensemble model
ensemble_model = ____(estimators=[('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='soft', weights=[____, ____, ____], flatten_transform=True)
# Get results
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)