Sintonizza l'iperparametro penalty
Ora che hai visto come il parametro penalty influisce sulla selezione delle feature nella lasso regression, potresti chiederti: "Qual è il valore migliore per penalty?" tidymodels offre funzioni per esplorare il valore ottimale degli iperparametri come penalty.
In questo esercizio troverai il valore migliore di penalty in base all'RMSE del modello, quindi adatterai un modello finale con quel valore di penalty. In questo modo ottimizzerai la selezione delle feature della lasso regression per le prestazioni del modello.
lasso_recipe è già stato creato per te e train è disponibile. Anche i pacchetti tidyverse e tidymodels sono già stati caricati per te.
Questo esercizio fa parte del corso
Riduzione della dimensionalità in R
Istruzioni dell'esercizio
- Definisci un workflow
linear_reg()che metta in tuningpenalty. - Crea un campionamento di cross validation a 3 fold da
traine una sequenza di 20 valori di penalty da 0,001 a 0,1. - Crea modelli lasso con diversi valori di penalty.
- Traccia le prestazioni del modello (RMSE) in funzione del valore di penalty.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Create tune-able model
lasso_model <- ___(___ = ___(), mixture = ___, engine = "glmnet")
lasso_workflow <- workflow(preprocessor = lasso_recipe, ___ = ___)
# Create a cross validation sample and sequence of penalty values
train_cv <- ___(___, v = ___)
penalty_grid <- grid_regular(penalty(range = c(___, ___)), levels = ___)
# Create lasso models with different penalty values
lasso_grid <- tune_grid(
___,
resamples = ___,
grid = ___)
# Plot RMSE vs. penalty values
___(___, metric = "rmse")