Grid-Search mit h2o
Nachdem du erfolgreich ein Random-Forest-Modell mit h2o trainiert hast, kannst du dieselben Konzepte auch für alle anderen Algorithmen anwenden, zum Beispiel Deep Learning. In dieser Übung wirst du eine Grid-Search einsetzen, um ein Modell zu tunen.
Denk daran: Gradient-Boosting-Modelle haben den Hyperparameter learn_rate, während Deep-Learning-Modelle den Hyperparameter rate verwenden.
Die Bibliothek h2o wurde bereits für dich geladen und initialisiert.
Diese Übung ist Teil des Kurses
Hyperparameter-Tuning in R
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))