Grid search CV voor modelcomplexiteit
In de laatste dia zag je dat de meeste classificatiemodellen één of meer hyperparameters hebben die de complexiteit bepalen. Je leerde ook hoe je die kunt afstellen met GridSearchCV(). In deze oefening ga je dat verder perfectioneren. Je experimenteert met:
- Het aantal bomen,
n_estimators, in eenRandomForestClassifier. - De maximale diepte,
max_depth, van de beslissingsbomen die in eenAdaBoostClassifierworden gebruikt. - Het aantal naaste buren,
n_neighbors, inKNeighborsClassifier.
Deze oefening maakt deel uit van de cursus
Machine Learning-workflows ontwerpen in Python
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Set a range for n_estimators from 10 to 40 in steps of 10
param_grid = {'____': range(10, ____, ____)}
# Optimize for a RandomForestClassifier() using GridSearchCV
grid = GridSearchCV(____, param_grid, cv=3)
grid.fit(X, y)
grid.best_params_