CommencerCommencer gratuitement

Préparer l’optimisation

La préparation est la base d’une optimisation réussie. Il y a deux étapes principales : marquer les hyperparamètres avec tune() dans la spécification du modèle, puis créer une grille d’hyperparamètres utilisée pendant l’optimisation.

Dans cet exercice, vous allez réaliser ces deux étapes essentielles du processus d’optimisation.

Cet exercice fait partie du cours

Machine Learning avec des modèles à base d’arbres en R

Afficher le cours

Instructions

  • Créez une spécification de boosting avec le moteur "xgboost" pour un modèle de classification utilisant 500 arbres, et marquez les paramètres suivants comme paramètres à optimiser : learn_rate, tree_depth et sample_size. Enregistrez le résultat sous boost_spec.
  • Construisez une grille d’optimisation régulière pour les paramètres à optimiser de boost_spec avec trois niveaux pour chaque paramètre.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Create the specification with placeholders
boost_spec <- boost_tree(
                trees = ___,
                ___,
                ___,
                ___) %>%
  set_mode(___) %>%
  set_engine(___)

# Create the tuning grid
tunegrid_boost <- ___(___, 
                      levels = ___)

tunegrid_boost
Modifier et exécuter le code