IniziaInizia gratis

Regola i pesi nel Voting Classifier

Hai appena visto che il Voting Classifier ti permette di migliorare le prestazioni nel rilevamento delle frodi combinando i punti di forza di più modelli. Ora proviamo a regolare i pesi che diamo a questi modelli. Aumentando o diminuendo i pesi puoi decidere quanta enfasi dare a un modello rispetto agli altri. Questo è utile quando un determinato modello ha prestazioni complessivamente migliori, ma vuoi comunque combinare aspetti degli altri per migliorare ulteriormente i risultati.

Per questo esercizio i dati sono già suddivisi in training set e test set, e clf1, clf2 e clf3 sono disponibili e definiti come prima, cioè rispettivamente Logistic Regression, modello Random Forest e Decision Tree.

Questo esercizio fa parte del corso

Rilevamento delle frodi in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Definisci un metodo ensemble in cui dai più peso al secondo classificatore (clf2) con un rapporto 4 a 1 rispetto agli altri classificatori.
  • Allena il modello sul training e test set e ottieni le predizioni predicted dal modello ensemble.
  • Stampa le metriche di prestazione: è già tutto pronto per essere eseguito.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Define the ensemble model
ensemble_model = ____(estimators=[('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='soft', weights=[____, ____, ____], flatten_transform=True)

# Get results 
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)
Modifica ed esegui il codice