Grid search met h2o
Nu je met succes een Random Forest-model met h2o hebt getraind, kun je dezelfde aanpak toepassen op andere algoritmen, zoals Deep Learning. In deze oefening ga je een grid search toepassen om een model te tunen.
Onthoud dat gradient boosting-modellen de hyperparameter learn_rate hebben, terwijl deep learning-modellen de hyperparameter rate gebruiken.
De h2o-bibliotheek is al voor je geladen en geïnitialiseerd.
Deze oefening maakt deel uit van de cursus
Hyperparameterafstelling in R
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))