LoslegenKostenlos loslegen

Ein Wald aus Entscheidungsbäumen

In dieser Übung übst du die Verwendung des gebootstrappten Decision Tree, besser bekannt als Random Forest. Wie in der vorherigen Übung vergleichst du anschließend seine Genauigkeit mit einem Modell, bei dem du Hyperparameter per Cross-Validation abgestimmt hast.

Dieses Mal stimmst du einen zusätzlichen Hyperparameter ab: max_features. Er legt fest, wie viele Features dein Modell berücksichtigt. Wenn er nicht explizit gesetzt wird, ist der Standardwert auto. Wichtig für ein Interview: Decision Trees berücksichtigen standardmäßig alle Features, während Random Forests üblicherweise die Quadratwurzel der Anzahl an Features verwenden.

Die Feature-Matrix X, das Ziel-Label y und train_test_split aus sklearn.model_selection wurden bereits für dich importiert.

Diese Übung ist Teil des Kurses

ML-Vorstellungsgespräche in Python üben

Kurs anzeigen

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Import modules
from sklearn.ensemble import ____
from sklearn.metrics import accuracy_score

# Train/test split
X_train, X_test, y_train, y_test = train_test_split(____, ____, test_size=0.30, random_state=123)

# Instantiate, Fit, Predict
loans_rf = ____() 
loans_rf.____(____, ____)
y_pred = loans_rf.____(____)

# Evaluation metric
print("Random Forest Accuracy: {}".format(____(____,____)))
Code bearbeiten und ausführen