Recherche par grille avec h2o
À présent que vous avez entraîné avec succès un modèle Random Forest avec h2o, vous pouvez appliquer les mêmes principes à d’autres algorithmes, comme le Deep Learning. Dans cet exercice, vous allez appliquer une recherche par grille pour ajuster un modèle.
Rappelez-vous que les modèles de gradient boosting utilisent l’hyperparamètre learn_rate, tandis que les modèles de deep learning utilisent l’hyperparamètre rate.
La bibliothèque h2o a déjà été chargée et initialisée pour vous.
Cet exercice fait partie du cours
Optimisation des hyperparamètres en R
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))