Probiere eine längere Tune Length aus
Erinnere dich aus dem Video: Random-Forest-Modelle haben den primären Tuning-Parameter mtry. Er steuert, wie viele Variablen dem Splitting-Suchverfahren an jedem Split zur Verfügung stehen. Angenommen, ein Baum hat insgesamt 10 Splits und mtry = 2. Das bedeutet, dass bei der Bewertung jedes Splits 10 Stichproben mit jeweils 2 Prädiktoren gezogen werden.
Verwende diesmal ein größeres Tuning-Grid, bleib aber bei den Standardwerten der Funktion train(). Probiere eine tuneLength von 3 statt 1 aus, um weitere potenzielle Modelle zu erkunden, und zeichne das resultierende Modell mit der Funktion plot.
Diese Übung ist Teil des Kurses
Maschinelles Lernen mit caret in R
Anleitung zur Übung
- Trainiere ein Random-Forest-Modell
modelmit dem Datensatzwineauf die Variablequality, wobei alle anderen Variablen als erklärende Variablen verwendet werden. (Das Ausführen dauert ein paar Sekunden – hab etwas Geduld!) - Verwende
method = "ranger". - Ändere
tuneLengthauf 3. - Nutze 5 CV-Folds.
- Gib
modelin der Konsole aus. - Zeichne das Modell nach dem Fitten.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Fit random forest: model
model <- train(
___,
tuneLength = 1,
data = ___,
method = ___,
trControl = trainControl(
method = "cv",
number = ___,
verboseIter = TRUE
)
)
# Print model to console
# Plot model