Busca em grade com h2o
Agora que você treinou com sucesso um modelo de Random Forest com h2o, pode aplicar os mesmos conceitos para treinar outros algoritmos, como Deep Learning. Neste exercício, você vai aplicar uma busca em grade (grid search) para ajustar um modelo.
Lembre-se de que modelos de gradient boosting usam o hiperparâmetro learn_rate, enquanto modelos de deep learning usam o hiperparâmetro rate.
A biblioteca h2o já foi carregada e inicializada para você.
Este exercício faz parte do curso
Ajuste de hiperparâmetros em R
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))