IniziaInizia gratis

La vera fase di tuning

I migliori iperparametri creano il modello migliore per i tuoi dati. Una volta scelta una griglia di tuning, devi addestrare e valutare i modelli in ogni punto della griglia per vedere quale offre le prestazioni migliori.

Questo può richiedere tempo: con la k-fold cross-validation, una dimensione dell’insieme di n alberi e una griglia di tuning di t combinazioni, in totale dovrai addestrare k * n * t modelli.

Ora tocca a te effettuare il tuning vero e proprio! Sono già caricati customers_train e i risultati dell’esercizio precedente, boost_spec e tunegrid_boost:

# A tibble: 27 x 3
   tree_depth    learn_rate  sample_size
        <int>         <dbl>        <dbl>
 1          1  0.0000000001         0.1 
 2          8  0.0000000001         0.1 
 3         15  0.0000000001         0.1 
 4          1  0.00000316           0.1 
 ...

Questo esercizio fa parte del corso

Machine Learning con modelli ad albero in R

Visualizza il corso

Istruzioni dell'esercizio

  • Crea sei fold dei dati di training usando vfold_cv() e salvali in folds.
  • Usa tune_grid() per effettuare il tuning di boost_spec usando i tuoi fold, la griglia di tuning e la metrica roc_auc. Salva i risultati in tune_results.
  • Visualizza i risultati con un grafico per vedere l’esito del processo di tuning.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Create CV folds of training data
folds <- ___

# Tune along the grid
tune_results <- ___(___,
                    still_customer ~ .,
                    resamples = ___,
                    grid = ___,
                    metrics = metric_set(___))

# Plot the results
___(___)
Modifica ed esegui il codice