ComenzarEmpieza gratis

La afinación propiamente dicha

Los mejores hiperparámetros generan el mejor modelo para tus datos. Una vez que decides una rejilla de afinación, tienes que entrenar y evaluar modelos en cada punto de la rejilla para ver cuál ofrece el mejor rendimiento.

Esto puede llevar tiempo, ya que si usas validación cruzada k-fold, un tamaño de conjunto de n árboles y una rejilla de t combinaciones, en total hay que entrenar k * n * t modelos.

¡Te toca realizar la afinación real! Ya están precargados customers_train y los resultados del ejercicio anterior, boost_spec y tunegrid_boost:

# A tibble: 27 x 3
   tree_depth    learn_rate  sample_size
        <int>         <dbl>        <dbl>
 1          1  0.0000000001         0.1 
 2          8  0.0000000001         0.1 
 3         15  0.0000000001         0.1 
 4          1  0.00000316           0.1 
 ...

Este ejercicio forma parte del curso

Machine Learning con modelos basados en árboles en R

Ver curso

Instrucciones del ejercicio

  • Crea seis folds de los datos de entrenamiento con vfold_cv() y guárdalos como folds.
  • Usa tune_grid() para afinar boost_spec con tus folds, tu rejilla de afinación y la métrica roc_auc. Guarda los resultados como tune_results.
  • Representa los resultados para visualizar el proceso de afinación.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Create CV folds of training data
folds <- ___

# Tune along the grid
tune_results <- ___(___,
                    still_customer ~ .,
                    resamples = ___,
                    grid = ___,
                    metrics = metric_set(___))

# Plot the results
___(___)
Editar y ejecutar código