Prova una tune length più lunga
Ricorda dal video che i modelli random forest hanno un parametro di ottimizzazione principale, mtry, che controlla quante variabili sono rese disponibili alla routine di ricerca dello split a ogni divisione. Per esempio, supponi che un albero abbia in totale 10 split e mtry = 2. Significa che, ogni volta che si valuta uno split, vengono estratti 10 campioni di 2 predittori ciascuno.
Usa questa volta una griglia di ottimizzazione più ampia, ma resta sui valori predefiniti forniti da train(). Prova un tuneLength pari a 3, invece di 1, per esplorare più modelli potenziali, e traccia il modello risultante usando la funzione plot.
Questo esercizio fa parte del corso
Machine Learning con caret in R
Istruzioni dell'esercizio
- Allena un modello random forest,
model, usando il datasetwinesulla variabilequalitycon tutte le altre variabili come esplicative. (L'esecuzione richiederà alcuni secondi, abbi pazienza!) - Usa
method = "ranger". - Imposta
tuneLengtha 3. - Usa 5 fold di CV.
- Stampa
modelin console. - Traccia il modello dopo l'addestramento.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Fit random forest: model
model <- train(
___,
tuneLength = 1,
data = ___,
method = ___,
trControl = trainControl(
method = "cv",
number = ___,
verboseIter = TRUE
)
)
# Print model to console
# Plot model