LoslegenKostenlos loslegen

Cross-Validation ohne Mischen

Führe jetzt das Modell-Fitting erneut mit Block-Cross-Validation aus (ohne alle Datenpunkte zu mischen). Dabei bleiben benachbarte Zeitpunkte dicht beieinander. Wie denkst du, werden die Modellvorhersagen in jeder Cross-Validation-Schleife aussehen?

Eine Instanz des linearen Regressions-model-Objekts steht in deinem Workspace bereit. Außerdem sind die Arrays X und y (Trainingsdaten) ebenfalls verfügbar.

Diese Übung ist Teil des Kurses

Maschinelles Lernen für Zeitreihendaten in Python

Kurs anzeigen

Anleitung zur Übung

  • Instanziiere ein weiteres Cross-Validation-Objekt, diesmal mit KFold-Cross-Validation mit 10 Splits und ohne Mischen.
  • Iteriere darüber, um mit den Trainingsindizes ein Modell zu fitten und mit den Testindizes Vorhersagen zu erzeugen.
  • Visualisiere die Vorhersagen über die CV-Splits hinweg mit der bereitgestellten Hilfsfunktion (visualize_predictions()).

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create KFold cross-validation object
from sklearn.model_selection import KFold
cv = ____(n_splits=____, shuffle=____)

# Iterate through CV splits
results = []
for tr, tt in cv.split(X, y):
    # Fit the model on training data
    model.fit(____)
    
    # Generate predictions on the test data and collect
    prediction = model.predict(____)
    results.append((prediction, tt))
    
# Custom function to quickly visualize predictions
visualize_predictions(results)
Code bearbeiten und ausführen