Aan de slagGa gratis aan de slag

Grid search CV voor modelcomplexiteit

In de laatste dia zag je dat de meeste classificatiemodellen één of meer hyperparameters hebben die de complexiteit bepalen. Je leerde ook hoe je die kunt afstellen met GridSearchCV(). In deze oefening ga je dat verder perfectioneren. Je experimenteert met:

  • Het aantal bomen, n_estimators, in een RandomForestClassifier.
  • De maximale diepte, max_depth, van de beslissingsbomen die in een AdaBoostClassifier worden gebruikt.
  • Het aantal naaste buren, n_neighbors, in KNeighborsClassifier.

Deze oefening maakt deel uit van de cursus

Machine Learning-workflows ontwerpen in Python

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Set a range for n_estimators from 10 to 40 in steps of 10
param_grid = {'____': range(10, ____, ____)}

# Optimize for a RandomForestClassifier() using GridSearchCV
grid = GridSearchCV(____, param_grid, cv=3)
grid.fit(X, y)
grid.best_params_
Code bewerken en uitvoeren