MulaiMulai sekarang secara gratis

Sesuaikan bobot dalam Voting Classifier

Anda baru saja melihat bahwa Voting Classifier memungkinkan Anda meningkatkan kinerja deteksi kecurangan dengan menggabungkan aspek terbaik dari beberapa model. Sekarang mari kita coba menyesuaikan bobot yang kita berikan pada model-model tersebut. Dengan menaikkan atau menurunkan bobot, Anda dapat mengatur seberapa besar penekanan yang diberikan pada model tertentu dibandingkan yang lain. Ini berguna ketika suatu model memiliki kinerja keseluruhan yang lebih baik daripada yang lain, namun Anda tetap ingin menggabungkan aspek dari model lain untuk semakin meningkatkan hasil Anda.

Untuk latihan ini, data sudah dipisahkan menjadi himpunan latih dan uji, serta clf1, clf2, dan clf3 sudah tersedia dan didefinisikan seperti sebelumnya, yaitu masing-masing adalah Logistic Regression, model Random Forest, dan Decision Tree.

Latihan ini adalah bagian dari kursus

Deteksi Kecurangan di Python

Lihat Kursus

Petunjuk latihan

  • Definisikan metode ansambel di mana Anda memberi bobot lebih pada pengklasifikasi kedua (clf2) dengan perbandingan 4 banding 1 terhadap pengklasifikasi lainnya.
  • Latih model pada himpunan latih dan uji, lalu peroleh prediksi predicted dari model ansambel.
  • Cetak metrik kinerja; bagian ini sudah siap untuk Anda jalankan.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Define the ensemble model
ensemble_model = ____(estimators=[('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='soft', weights=[____, ____, ____], flatten_transform=True)

# Get results 
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)
Edit dan Jalankan Kode