IniziaInizia gratis

Prova una tune length più lunga

Ricorda dal video che i modelli random forest hanno un parametro di ottimizzazione principale, mtry, che controlla quante variabili sono rese disponibili alla routine di ricerca dello split a ogni divisione. Per esempio, supponi che un albero abbia in totale 10 split e mtry = 2. Significa che, ogni volta che si valuta uno split, vengono estratti 10 campioni di 2 predittori ciascuno.

Usa questa volta una griglia di ottimizzazione più ampia, ma resta sui valori predefiniti forniti da train(). Prova un tuneLength pari a 3, invece di 1, per esplorare più modelli potenziali, e traccia il modello risultante usando la funzione plot.

Questo esercizio fa parte del corso

Machine Learning con caret in R

Visualizza il corso

Istruzioni dell'esercizio

  • Allena un modello random forest, model, usando il dataset wine sulla variabile quality con tutte le altre variabili come esplicative. (L'esecuzione richiederà alcuni secondi, abbi pazienza!)
  • Usa method = "ranger".
  • Imposta tuneLength a 3.
  • Usa 5 fold di CV.
  • Stampa model in console.
  • Traccia il modello dopo l'addestramento.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Fit random forest: model
model <- train(
  ___,
  tuneLength = 1,
  data = ___, 
  method = ___,
  trControl = trainControl(
    method = "cv", 
    number = ___, 
    verboseIter = TRUE
  )
)

# Print model to console


# Plot model
Modifica ed esegui il codice