ComeçarComece de graça

Busca em grade com h2o

Agora que você treinou com sucesso um modelo de Random Forest com h2o, pode aplicar os mesmos conceitos para treinar outros algoritmos, como Deep Learning. Neste exercício, você vai aplicar uma busca em grade (grid search) para ajustar um modelo.

Lembre-se de que modelos de gradient boosting usam o hiperparâmetro learn_rate, enquanto modelos de deep learning usam o hiperparâmetro rate.

A biblioteca h2o já foi carregada e inicializada para você.

Este exercício faz parte do curso

Ajuste de hiperparâmetros em R

Ver curso

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))
Editar e executar o código