MLP-Grid-Search
Hyperparameter-Tuning kann in sklearn durchgeführt werden, indem du verschiedene Eingabeparameter bereitstellst, von denen jeder mit Funktionen aus numpy erzeugt werden kann. Eine Methode, die alle Kombinationen der über param_grid angegebenen Hyperparameter vollständig durchsucht, ist die Grid Search. In dieser Übung verwendest du Grid Search, um die Hyperparameter für einen MLP-Klassifikator zu untersuchen.
X_train, y_train, X_test, y_test stehen in deinem Workspace bereit, und die Features wurden bereits standardisiert. pandas als pd und numpy als np sind ebenfalls verfügbar.
Diese Übung ist Teil des Kurses
CTR-Vorhersage mit Machine Learning in Python
Anleitung zur Übung
- Erzeuge die Werteliste
[10, 20]fürmax_iterund die Werteliste[(8, ), (16, )]fürhidden_layer_sizes. - Richte eine Grid Search mit 4 Jobs ein, indem du
n_jobsverwendest, um über alle Hyperparameter-Kombinationen zu iterieren. - Gib den besten AUC-Score und den besten Estimator aus, der zu diesem Score geführt hat.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Create list of hyperparameters
max_iter = [____, ____]
hidden_layer_sizes = [____, ____]
param_grid = {'max_iter': max_iter, 'hidden_layer_sizes': hidden_layer_sizes}
# Use Grid search CV to find best parameters using 4 jobs
mlp = ____
clf = ____(estimator = mlp, param_grid = ____,
scoring = 'roc_auc', ____ = 4)
clf.fit(X_train, y_train)
print("Best Score: ")
print(clf.____)
print("Best Estimator: ")
print(clf.____)