LoslegenKostenlos loslegen

Model Stacking II

Okay, das hast du bisher bei der Stacking-Implementierung gemacht:

  1. Trainingsdaten in zwei Teile aufgeteilt
  2. Mehrere Modelle auf Teil 1 trainiert
  3. Vorhersagen für Teil 2 erzeugt
  4. Vorhersagen für die Testdaten erzeugt

Jetzt sollst du ein Second-Level-Modell erstellen, das die Vorhersagen aus Schritt 3 und 4 als Features verwendet. Dieses Modell wird auf den Daten von Teil 2 trainiert, und anschließend kannst du Stacking-Vorhersagen für die Testdaten machen.

Die DataFrames part_2 und test sind bereits in deinem Workspace verfügbar. Die Vorhersagen von Gradient Boosting und Random Forest sind in diesen DataFrames unter den Namen „gbpred“ bzw. „rfpred“ gespeichert.

Diese Übung ist Teil des Kurses

Eine Kaggle-Competition in Python gewinnen

Kurs anzeigen

Anleitung zur Übung

  • Trainiere ein Lineare-Regression-Modell auf den Daten von Teil 2 und nutze die Vorhersagen der Gradient-Boosting- und Random-Forest-Modelle als Features.
  • Erzeuge Vorhersagen für die Testdaten und nutze dafür die Vorhersagen der Gradient-Boosting- und Random-Forest-Modelle als Features.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

from sklearn.linear_model import LinearRegression

# Create linear regression model without the intercept
lr = LinearRegression(fit_intercept=False)

# Train 2nd level model on the Part 2 data
lr.____(part_2[['gb_pred', '____']], part_2.fare_amount)

# Make stacking predictions on the test data
test['stacking'] = lr.____(test[['gb_pred', '____']])

# Look at the model coefficients
print(lr.coef_)
Code bearbeiten und ausführen