Aan de slagGa gratis aan de slag

Het echte afstemmen

De beste hyperparameters leveren het beste model voor je gegevens. Zodra je een tuningraster hebt gekozen, moet je voor elk rasterpunt een model trainen en evalueren om te zien welk punt de beste modelprestatie geeft.

Dit kan even duren: met k-fold cross-validation, een ensemblegrootte van n bomen en een tuningraster met t combinaties moeten er in totaal k * n * t modellen worden getraind.

Jij bent aan de beurt om het echte afstemwerk te doen! Vooraf geladen zijn customers_train en de resultaten van de vorige oefening, boost_spec en tunegrid_boost:

# A tibble: 27 x 3
   tree_depth    learn_rate  sample_size
        <int>         <dbl>        <dbl>
 1          1  0.0000000001         0.1 
 2          8  0.0000000001         0.1 
 3         15  0.0000000001         0.1 
 4          1  0.00000316           0.1 
 ...

Deze oefening maakt deel uit van de cursus

Machine Learning met boomgebaseerde modellen in R

Cursus bekijken

Oefeninstructies

  • Maak zes folds van de trainingsdata met vfold_cv() en sla ze op als folds.
  • Gebruik tune_grid() om boost_spec af te stemmen met je folds, je tuningraster en de roc_auc-metric. Sla de resultaten op als tune_results.
  • Plot de resultaten om het afstemmingsproces te visualiseren.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Create CV folds of training data
folds <- ___

# Tune along the grid
tune_results <- ___(___,
                    still_customer ~ .,
                    resamples = ___,
                    grid = ___,
                    metrics = metric_set(___))

# Plot the results
___(___)
Code bewerken en uitvoeren