Menyetel hyperparameter bagging
Meskipun Anda dapat dengan mudah membangun classifier bagging menggunakan parameter default, sangat disarankan untuk menyetelnya agar mencapai kinerja optimal. Idealnya, parameter ini dioptimalkan menggunakan K-fold cross-validation.
Pada latihan ini, mari lihat apakah kita dapat meningkatkan kinerja model dengan memodifikasi parameter pada classifier bagging.
Di sini kita juga meneruskan parameter solver='liblinear' ke LogisticRegression untuk mengurangi waktu komputasi.
Latihan ini adalah bagian dari kursus
Metode Ensemble di Python
Petunjuk latihan
- Bangun classifier bagging dengan logistic regression sebagai model dasar, dengan
20estimator dasar,10fitur maksimum,0.65(65%) sampel maksimum (max_samples), dan pengambilan sampel tanpa pengembalian (tanpa penggantian). - Gunakan
clf_baguntuk memprediksi label himpunan uji,X_test.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Build a balanced logistic regression
clf_base = LogisticRegression(class_weight='balanced', solver='liblinear', random_state=42)
# Build and fit a bagging classifier with custom parameters
clf_bag = ____(____, ____, ____, ____, ____, random_state=500)
clf_bag.fit(X_train, y_train)
# Calculate predictions and evaluate the accuracy on the test set
y_pred = ____
print('Accuracy: {:.2f}'.format(accuracy_score(y_test, y_pred)))
# Print the classification report
print(classification_report(y_test, y_pred))