La afinación propiamente dicha
Los mejores hiperparámetros generan el mejor modelo para tus datos. Una vez que decides una rejilla de afinación, tienes que entrenar y evaluar modelos en cada punto de la rejilla para ver cuál ofrece el mejor rendimiento.
Esto puede llevar tiempo, ya que si usas validación cruzada k-fold, un tamaño de conjunto de n árboles y una rejilla de t combinaciones, en total hay que entrenar k * n * t modelos.
¡Te toca realizar la afinación real! Ya están precargados customers_train y los resultados del ejercicio anterior, boost_spec y tunegrid_boost:
# A tibble: 27 x 3
tree_depth learn_rate sample_size
<int> <dbl> <dbl>
1 1 0.0000000001 0.1
2 8 0.0000000001 0.1
3 15 0.0000000001 0.1
4 1 0.00000316 0.1
...
Este ejercicio forma parte del curso
Machine Learning con modelos basados en árboles en R
Instrucciones del ejercicio
- Crea seis folds de los datos de entrenamiento con
vfold_cv()y guárdalos comofolds. - Usa
tune_grid()para afinarboost_speccon tus folds, tu rejilla de afinación y la métricaroc_auc. Guarda los resultados comotune_results. - Representa los resultados para visualizar el proceso de afinación.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Create CV folds of training data
folds <- ___
# Tune along the grid
tune_results <- ___(___,
still_customer ~ .,
resamples = ___,
grid = ___,
metrics = metric_set(___))
# Plot the results
___(___)