L’ajustement proprement dit
Les meilleurs hyperparamètres donnent le meilleur modèle pour vos données. Une fois votre grille d’ajustement définie, vous devez entraîner et évaluer des modèles pour chaque point de la grille afin d’identifier celui qui offre les meilleures performances.
Cela peut prendre du temps : avec une validation croisée en k plis, un ensemble de n arbres et une grille de t combinaisons, vous devez entraîner au total k * n * t modèles.
À vous de passer à l’ajustement ! Sont préchargés : customers_train ainsi que les résultats de l’exercice précédent, boost_spec et tunegrid_boost :
# A tibble: 27 x 3
tree_depth learn_rate sample_size
<int> <dbl> <dbl>
1 1 0.0000000001 0.1
2 8 0.0000000001 0.1
3 15 0.0000000001 0.1
4 1 0.00000316 0.1
...
Cet exercice fait partie du cours
Machine Learning avec des modèles à base d’arbres en R
Instructions
- Créez six plis à partir des données d’entraînement avec
vfold_cv()et enregistrez-les dansfolds. - Utilisez
tune_grid()pour ajusterboost_specen utilisant vos plis, votre grille d’ajustement et la métriqueroc_auc. Enregistrez les résultats danstune_results. - Tracez les résultats pour visualiser le processus d’ajustement.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Create CV folds of training data
folds <- ___
# Tune along the grid
tune_results <- ___(___,
still_customer ~ .,
resamples = ___,
grid = ___,
metrics = metric_set(___))
# Plot the results
___(___)