Die Anzahl der zu optimierenden Hyperparameter ändern
Wenn wir das Modellobjekt genauer betrachten, sehen wir, dass caret bereits eine automatische Hyperparameter-Optimierung für uns durchgeführt hat: train erzeugt automatisch ein Gitter aus Tuning-Parametern. Standardmäßig gilt: Wenn p die Anzahl der Tuning-Parameter ist, hat das Gitter die Größe 3^p. Wir können jedoch auch festlegen, wie viele verschiedene Werte für jeden Hyperparameter ausprobiert werden sollen.
Die Daten wurden wieder als bc_train_data vorgeladen. Die Bibliotheken caret und tictoc wurden ebenfalls vorgeladen.
Diese Übung ist Teil des Kurses
Hyperparameter-Tuning in R
Anleitung zur Übung
- Probiere mit dem automatischen Tuning in
caretvier verschiedene Werte für jeden Hyperparameter aus.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Set seed.
set.seed(42)
# Start timer.
tic()
# Train model.
gbm_model <- train(diagnosis ~ .,
data = bc_train_data,
method = "gbm",
trControl = trainControl(method = "repeatedcv", number = 5, repeats = 3),
verbose = FALSE,
___)
# Stop timer.
toc()