Het echte afstemmen
De beste hyperparameters leveren het beste model voor je gegevens. Zodra je een tuningraster hebt gekozen, moet je voor elk rasterpunt een model trainen en evalueren om te zien welk punt de beste modelprestatie geeft.
Dit kan even duren: met k-fold cross-validation, een ensemblegrootte van n bomen en een tuningraster met t combinaties moeten er in totaal k * n * t modellen worden getraind.
Jij bent aan de beurt om het echte afstemwerk te doen! Vooraf geladen zijn customers_train en de resultaten van de vorige oefening, boost_spec en tunegrid_boost:
# A tibble: 27 x 3
tree_depth learn_rate sample_size
<int> <dbl> <dbl>
1 1 0.0000000001 0.1
2 8 0.0000000001 0.1
3 15 0.0000000001 0.1
4 1 0.00000316 0.1
...
Deze oefening maakt deel uit van de cursus
Machine Learning met boomgebaseerde modellen in R
Oefeninstructies
- Maak zes folds van de trainingsdata met
vfold_cv()en sla ze op alsfolds. - Gebruik
tune_grid()omboost_specaf te stemmen met je folds, je tuningraster en deroc_auc-metric. Sla de resultaten op alstune_results. - Plot de resultaten om het afstemmingsproces te visualiseren.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create CV folds of training data
folds <- ___
# Tune along the grid
tune_results <- ___(___,
still_customer ~ .,
resamples = ___,
grid = ___,
metrics = metric_set(___))
# Plot the results
___(___)