Sesuaikan bobot dalam Voting Classifier
Anda baru saja melihat bahwa Voting Classifier memungkinkan Anda meningkatkan kinerja deteksi kecurangan dengan menggabungkan aspek terbaik dari beberapa model. Sekarang mari kita coba menyesuaikan bobot yang kita berikan pada model-model tersebut. Dengan menaikkan atau menurunkan bobot, Anda dapat mengatur seberapa besar penekanan yang diberikan pada model tertentu dibandingkan yang lain. Ini berguna ketika suatu model memiliki kinerja keseluruhan yang lebih baik daripada yang lain, namun Anda tetap ingin menggabungkan aspek dari model lain untuk semakin meningkatkan hasil Anda.
Untuk latihan ini, data sudah dipisahkan menjadi himpunan latih dan uji, serta clf1, clf2, dan clf3 sudah tersedia dan didefinisikan seperti sebelumnya, yaitu masing-masing adalah Logistic Regression, model Random Forest, dan Decision Tree.
Latihan ini adalah bagian dari kursus
Deteksi Kecurangan di Python
Petunjuk latihan
- Definisikan metode ansambel di mana Anda memberi bobot lebih pada pengklasifikasi kedua (clf2) dengan perbandingan 4 banding 1 terhadap pengklasifikasi lainnya.
- Latih model pada himpunan latih dan uji, lalu peroleh prediksi
predicteddari model ansambel. - Cetak metrik kinerja; bagian ini sudah siap untuk Anda jalankan.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Define the ensemble model
ensemble_model = ____(estimators=[('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='soft', weights=[____, ____, ____], flatten_transform=True)
# Get results
get_model_results(X_train, y_train, X_test, y_test, ensemble_model)