ComeçarComece de graça

A calibração de verdade

Os melhores hiperparâmetros geram o melhor modelo para seus dados. Depois de decidir uma grade de calibração, você precisa treinar e avaliar modelos em cada ponto da grade para ver qual deles oferece o melhor desempenho.

Isso pode levar algum tempo, já que, usando validação cruzada k-fold, um conjunto (ensemble) com n árvores e uma grade com t combinações, você terá k * n * t modelos para treinar no total.

Agora é a sua vez de fazer a calibração de fato! Já estão carregados customers_train e os resultados do último exercício, boost_spec e tunegrid_boost:

# A tibble: 27 x 3
   tree_depth    learn_rate  sample_size
        <int>         <dbl>        <dbl>
 1          1  0.0000000001         0.1 
 2          8  0.0000000001         0.1 
 3         15  0.0000000001         0.1 
 4          1  0.00000316           0.1 
 ...

Este exercício faz parte do curso

Machine Learning com modelos baseados em árvores em R

Ver curso

Instruções do exercício

  • Crie seis folds dos dados de treino usando vfold_cv() e salve como folds.
  • Use tune_grid() para calibrar boost_spec usando seus folds, sua grade de calibração e a métrica roc_auc. Salve os resultados como tune_results.
  • Faça um gráfico dos resultados para visualizar o processo de calibração.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Create CV folds of training data
folds <- ___

# Tune along the grid
tune_results <- ___(___,
                    still_customer ~ .,
                    resamples = ___,
                    grid = ___,
                    metrics = metric_set(___))

# Plot the results
___(___)
Editar e executar o código