Préparer l’optimisation
La préparation est la base d’une optimisation réussie. Il y a deux étapes principales : marquer les hyperparamètres avec tune() dans la spécification du modèle, puis créer une grille d’hyperparamètres utilisée pendant l’optimisation.
Dans cet exercice, vous allez réaliser ces deux étapes essentielles du processus d’optimisation.
Cet exercice fait partie du cours
Machine Learning avec des modèles à base d’arbres en R
Instructions
- Créez une spécification de boosting avec le moteur
"xgboost"pour un modèle de classification utilisant 500 arbres, et marquez les paramètres suivants comme paramètres à optimiser :learn_rate,tree_depthetsample_size. Enregistrez le résultat sousboost_spec. - Construisez une grille d’optimisation régulière pour les paramètres à optimiser de
boost_specavec trois niveaux pour chaque paramètre.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Create the specification with placeholders
boost_spec <- boost_tree(
trees = ___,
___,
___,
___) %>%
set_mode(___) %>%
set_engine(___)
# Create the tuning grid
tunegrid_boost <- ___(___,
levels = ___)
tunegrid_boost