CommencerCommencer gratuitement

L’ajustement proprement dit

Les meilleurs hyperparamètres donnent le meilleur modèle pour vos données. Une fois votre grille d’ajustement définie, vous devez entraîner et évaluer des modèles pour chaque point de la grille afin d’identifier celui qui offre les meilleures performances.

Cela peut prendre du temps : avec une validation croisée en k plis, un ensemble de n arbres et une grille de t combinaisons, vous devez entraîner au total k * n * t modèles.

À vous de passer à l’ajustement ! Sont préchargés : customers_train ainsi que les résultats de l’exercice précédent, boost_spec et tunegrid_boost :

# A tibble: 27 x 3
   tree_depth    learn_rate  sample_size
        <int>         <dbl>        <dbl>
 1          1  0.0000000001         0.1 
 2          8  0.0000000001         0.1 
 3         15  0.0000000001         0.1 
 4          1  0.00000316           0.1 
 ...

Cet exercice fait partie du cours

Machine Learning avec des modèles à base d’arbres en R

Afficher le cours

Instructions

  • Créez six plis à partir des données d’entraînement avec vfold_cv() et enregistrez-les dans folds.
  • Utilisez tune_grid() pour ajuster boost_spec en utilisant vos plis, votre grille d’ajustement et la métrique roc_auc. Enregistrez les résultats dans tune_results.
  • Tracez les résultats pour visualiser le processus d’ajustement.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Create CV folds of training data
folds <- ___

# Tune along the grid
tune_results <- ___(___,
                    still_customer ~ .,
                    resamples = ___,
                    grid = ___,
                    metrics = metric_set(___))

# Plot the results
___(___)
Modifier et exécuter le code