Aan de slagGa gratis aan de slag

Grid search met h2o

Nu je met succes een Random Forest-model met h2o hebt getraind, kun je dezelfde aanpak toepassen op andere algoritmen, zoals Deep Learning. In deze oefening ga je een grid search toepassen om een model te tunen.

Onthoud dat gradient boosting-modellen de hyperparameter learn_rate hebben, terwijl deep learning-modellen de hyperparameter rate gebruiken.

De h2o-bibliotheek is al voor je geladen en geïnitialiseerd.

Deze oefening maakt deel uit van de cursus

Hyperparameterafstelling in R

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))
Code bewerken en uitvoeren