Probeer een langere tune length
Herinner je uit de video dat random forest-modellen één primaire afstemmingsparameter hebben: mtry. Die bepaalt hoeveel variabelen bij elke splitsing beschikbaar zijn voor de zoekroutine. Stel bijvoorbeeld dat een boom in totaal 10 splitsingen heeft en mtry = 2. Dit betekent dat er 10 steekproeven zijn van 2 voorspellers telkens wanneer een splitsing wordt geëvalueerd.
Gebruik dit keer een groter afstemrooster, maar blijf bij de standaardwaarden van de functie train(). Probeer een tuneLength van 3 in plaats van 1 om meer potentiële modellen te verkennen, en plot het resulterende model met de functie plot.
Deze oefening maakt deel uit van de cursus
Machine Learning met caret in R
Oefeninstructies
- Train een random forest-model,
model, met dewine-gegevensset op de variabelequality, met alle andere variabelen als verklarende variabelen. (Dit duurt een paar seconden, dus heb even geduld!) - Gebruik
method = "ranger". - Verander de
tuneLengthnaar 3. - Gebruik 5 CV-folds.
- Print
modelnaar de console. - Plot het model nadat het is gefit.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Fit random forest: model
model <- train(
___,
tuneLength = 1,
data = ___,
method = ___,
trControl = trainControl(
method = "cv",
number = ___,
verboseIter = TRUE
)
)
# Print model to console
# Plot model