A calibração de verdade
Os melhores hiperparâmetros geram o melhor modelo para seus dados. Depois de decidir uma grade de calibração, você precisa treinar e avaliar modelos em cada ponto da grade para ver qual deles oferece o melhor desempenho.
Isso pode levar algum tempo, já que, usando validação cruzada k-fold, um conjunto (ensemble) com n árvores e uma grade com t combinações, você terá k * n * t modelos para treinar no total.
Agora é a sua vez de fazer a calibração de fato! Já estão carregados customers_train e os resultados do último exercício, boost_spec e tunegrid_boost:
# A tibble: 27 x 3
tree_depth learn_rate sample_size
<int> <dbl> <dbl>
1 1 0.0000000001 0.1
2 8 0.0000000001 0.1
3 15 0.0000000001 0.1
4 1 0.00000316 0.1
...
Este exercício faz parte do curso
Machine Learning com modelos baseados em árvores em R
Instruções do exercício
- Crie seis folds dos dados de treino usando
vfold_cv()e salve comofolds. - Use
tune_grid()para calibrarboost_specusando seus folds, sua grade de calibração e a métricaroc_auc. Salve os resultados comotune_results. - Faça um gráfico dos resultados para visualizar o processo de calibração.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create CV folds of training data
folds <- ___
# Tune along the grid
tune_results <- ___(___,
still_customer ~ .,
resamples = ___,
grid = ___,
metrics = metric_set(___))
# Plot the results
___(___)