LoslegenKostenlos loslegen

Grid-Search-CV für Modellkomplexität

Auf der letzten Folie hast du gesehen, dass die meisten Klassifikatoren ein oder mehrere Hyperparameter haben, die ihre Komplexität steuern. Du hast auch gelernt, sie mit GridSearchCV() zu tunen. In dieser Übung verfeinerst du diese Fähigkeit. Du experimentierst mit:

  • Der Anzahl der Bäume, n_estimators, in einem RandomForestClassifier.
  • Der maximalen Tiefe, max_depth, der Entscheidungsbäume in einem AdaBoostClassifier.
  • Der Anzahl der nächsten Nachbarn, n_neighbors, im KNeighborsClassifier.

Diese Übung ist Teil des Kurses

Machine-Learning-Workflows in Python entwerfen

Kurs anzeigen

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Set a range for n_estimators from 10 to 40 in steps of 10
param_grid = {'____': range(10, ____, ____)}

# Optimize for a RandomForestClassifier() using GridSearchCV
grid = GridSearchCV(____, param_grid, cv=3)
grid.fit(X, y)
grid.best_params_
Code bearbeiten und ausführen