Grid search per MLP
L'hyperparameter tuning può essere effettuato con sklearn fornendo diversi parametri di input, ciascuno dei quali può essere definito usando varie funzioni di numpy. Un metodo di tuning che analizza in modo esaustivo tutte le combinazioni di iperparametri specificati tramite param_grid è la grid search. In questo esercizio userai la grid search per esplorare gli iperparametri di un classificatore MLP.
X_train, y_train, X_test, y_test sono disponibili nel tuo workspace e le feature sono già state standardizzate. pandas come pd e numpy come np sono anch'essi disponibili nel tuo workspace.
Questo esercizio fa parte del corso
Prevedere il CTR con il Machine Learning in Python
Istruzioni dell'esercizio
- Crea la lista di valori
[10, 20]permax_itere una lista di valori[(8, ), (16, )]perhidden_layer_sizes. - Imposta una grid search con 4 job usando
n_jobsper iterare su tutte le combinazioni di iperparametri. - Stampa il miglior punteggio AUC e il miglior stimatore che ha portato a questo punteggio.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Create list of hyperparameters
max_iter = [____, ____]
hidden_layer_sizes = [____, ____]
param_grid = {'max_iter': max_iter, 'hidden_layer_sizes': hidden_layer_sizes}
# Use Grid search CV to find best parameters using 4 jobs
mlp = ____
clf = ____(estimator = mlp, param_grid = ____,
scoring = 'roc_auc', ____ = 4)
clf.fit(X_train, y_train)
print("Best Score: ")
print(clf.____)
print("Best Estimator: ")
print(clf.____)