La vera fase di tuning
I migliori iperparametri creano il modello migliore per i tuoi dati. Una volta scelta una griglia di tuning, devi addestrare e valutare i modelli in ogni punto della griglia per vedere quale offre le prestazioni migliori.
Questo può richiedere tempo: con la k-fold cross-validation, una dimensione dell’insieme di n alberi e una griglia di tuning di t combinazioni, in totale dovrai addestrare k * n * t modelli.
Ora tocca a te effettuare il tuning vero e proprio! Sono già caricati customers_train e i risultati dell’esercizio precedente, boost_spec e tunegrid_boost:
# A tibble: 27 x 3
tree_depth learn_rate sample_size
<int> <dbl> <dbl>
1 1 0.0000000001 0.1
2 8 0.0000000001 0.1
3 15 0.0000000001 0.1
4 1 0.00000316 0.1
...
Questo esercizio fa parte del corso
Machine Learning con modelli ad albero in R
Istruzioni dell'esercizio
- Crea sei fold dei dati di training usando
vfold_cv()e salvali infolds. - Usa
tune_grid()per effettuare il tuning diboost_specusando i tuoi fold, la griglia di tuning e la metricaroc_auc. Salva i risultati intune_results. - Visualizza i risultati con un grafico per vedere l’esito del processo di tuning.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Create CV folds of training data
folds <- ___
# Tune along the grid
tune_results <- ___(___,
still_customer ~ .,
resamples = ___,
grid = ___,
metrics = metric_set(___))
# Plot the results
___(___)