LoslegenKostenlos loslegen

Probiere eine längere Tune Length aus

Erinnere dich aus dem Video: Random-Forest-Modelle haben den primären Tuning-Parameter mtry. Er steuert, wie viele Variablen dem Splitting-Suchverfahren an jedem Split zur Verfügung stehen. Angenommen, ein Baum hat insgesamt 10 Splits und mtry = 2. Das bedeutet, dass bei der Bewertung jedes Splits 10 Stichproben mit jeweils 2 Prädiktoren gezogen werden.

Verwende diesmal ein größeres Tuning-Grid, bleib aber bei den Standardwerten der Funktion train(). Probiere eine tuneLength von 3 statt 1 aus, um weitere potenzielle Modelle zu erkunden, und zeichne das resultierende Modell mit der Funktion plot.

Diese Übung ist Teil des Kurses

Maschinelles Lernen mit caret in R

Kurs anzeigen

Anleitung zur Übung

  • Trainiere ein Random-Forest-Modell model mit dem Datensatz wine auf die Variable quality, wobei alle anderen Variablen als erklärende Variablen verwendet werden. (Das Ausführen dauert ein paar Sekunden – hab etwas Geduld!)
  • Verwende method = "ranger".
  • Ändere tuneLength auf 3.
  • Nutze 5 CV-Folds.
  • Gib model in der Konsole aus.
  • Zeichne das Modell nach dem Fitten.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Fit random forest: model
model <- train(
  ___,
  tuneLength = 1,
  data = ___, 
  method = ___,
  trControl = trainControl(
    method = "cv", 
    number = ___, 
    verboseIter = TRUE
  )
)

# Print model to console


# Plot model
Code bearbeiten und ausführen