CommencerCommencer gratuitement

Recherche par grille avec h2o

À présent que vous avez entraîné avec succès un modèle Random Forest avec h2o, vous pouvez appliquer les mêmes principes à d’autres algorithmes, comme le Deep Learning. Dans cet exercice, vous allez appliquer une recherche par grille pour ajuster un modèle.

Rappelez-vous que les modèles de gradient boosting utilisent l’hyperparamètre learn_rate, tandis que les modèles de deep learning utilisent l’hyperparamètre rate.

La bibliothèque h2o a déjà été chargée et initialisée pour vous.

Cet exercice fait partie du cours

Optimisation des hyperparamètres en R

Afficher le cours

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Define hyperparameters
dl_params <- ___(___ = c(0.001, 0.005, 0.01))
Modifier et exécuter le code