MulaiMulai sekarang secara gratis

Menyetel hyperparameter bagging

Meskipun Anda dapat dengan mudah membangun classifier bagging menggunakan parameter default, sangat disarankan untuk menyetelnya agar mencapai kinerja optimal. Idealnya, parameter ini dioptimalkan menggunakan K-fold cross-validation.

Pada latihan ini, mari lihat apakah kita dapat meningkatkan kinerja model dengan memodifikasi parameter pada classifier bagging.

Di sini kita juga meneruskan parameter solver='liblinear' ke LogisticRegression untuk mengurangi waktu komputasi.

Latihan ini adalah bagian dari kursus

Metode Ensemble di Python

Lihat Kursus

Petunjuk latihan

  • Bangun classifier bagging dengan logistic regression sebagai model dasar, dengan 20 estimator dasar, 10 fitur maksimum, 0.65 (65%) sampel maksimum (max_samples), dan pengambilan sampel tanpa pengembalian (tanpa penggantian).
  • Gunakan clf_bag untuk memprediksi label himpunan uji, X_test.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Build a balanced logistic regression
clf_base = LogisticRegression(class_weight='balanced', solver='liblinear', random_state=42)

# Build and fit a bagging classifier with custom parameters
clf_bag = ____(____, ____, ____, ____, ____, random_state=500)
clf_bag.fit(X_train, y_train)

# Calculate predictions and evaluate the accuracy on the test set
y_pred = ____
print('Accuracy:  {:.2f}'.format(accuracy_score(y_test, y_pred)))

# Print the classification report
print(classification_report(y_test, y_pred))
Edit dan Jalankan Kode