LoslegenKostenlos loslegen

MLP-Grid-Search

Hyperparameter-Tuning kann in sklearn durchgeführt werden, indem du verschiedene Eingabeparameter bereitstellst, von denen jeder mit Funktionen aus numpy erzeugt werden kann. Eine Methode, die alle Kombinationen der über param_grid angegebenen Hyperparameter vollständig durchsucht, ist die Grid Search. In dieser Übung verwendest du Grid Search, um die Hyperparameter für einen MLP-Klassifikator zu untersuchen.

X_train, y_train, X_test, y_test stehen in deinem Workspace bereit, und die Features wurden bereits standardisiert. pandas als pd und numpy als np sind ebenfalls verfügbar.

Diese Übung ist Teil des Kurses

CTR-Vorhersage mit Machine Learning in Python

Kurs anzeigen

Anleitung zur Übung

  • Erzeuge die Werteliste [10, 20] für max_iter und die Werteliste [(8, ), (16, )] für hidden_layer_sizes.
  • Richte eine Grid Search mit 4 Jobs ein, indem du n_jobs verwendest, um über alle Hyperparameter-Kombinationen zu iterieren.
  • Gib den besten AUC-Score und den besten Estimator aus, der zu diesem Score geführt hat.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create list of hyperparameters 
max_iter = [____, ____]
hidden_layer_sizes = [____, ____]
param_grid = {'max_iter': max_iter, 'hidden_layer_sizes': hidden_layer_sizes}

# Use Grid search CV to find best parameters using 4 jobs
mlp = ____
clf = ____(estimator = mlp, param_grid = ____, 
           scoring = 'roc_auc', ____ = 4)
clf.fit(X_train, y_train)
print("Best Score: ")
print(clf.____)
print("Best Estimator: ")
print(clf.____)
Code bearbeiten und ausführen