LoslegenKostenlos loslegen

Die Anzahl der zu optimierenden Hyperparameter ändern

Wenn wir das Modellobjekt genauer betrachten, sehen wir, dass caret bereits eine automatische Hyperparameter-Optimierung für uns durchgeführt hat: train erzeugt automatisch ein Gitter aus Tuning-Parametern. Standardmäßig gilt: Wenn p die Anzahl der Tuning-Parameter ist, hat das Gitter die Größe 3^p. Wir können jedoch auch festlegen, wie viele verschiedene Werte für jeden Hyperparameter ausprobiert werden sollen.

Die Daten wurden wieder als bc_train_data vorgeladen. Die Bibliotheken caret und tictoc wurden ebenfalls vorgeladen.

Diese Übung ist Teil des Kurses

Hyperparameter-Tuning in R

Kurs anzeigen

Anleitung zur Übung

  • Probiere mit dem automatischen Tuning in caret vier verschiedene Werte für jeden Hyperparameter aus.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Set seed.
set.seed(42)
# Start timer.
tic()
# Train model.
gbm_model <- train(diagnosis ~ ., 
                   data = bc_train_data, 
                   method = "gbm", 
                   trControl = trainControl(method = "repeatedcv", number = 5, repeats = 3),
                   verbose = FALSE,
                   ___)
# Stop timer.
toc()
Code bearbeiten und ausführen