Faire varier les hyperparamètres
Le nombre d’itérations d’apprentissage et la taille des couches cachées sont deux hyperparamètres essentiels que vous pouvez faire varier avec un classifieur MLP. Dans cet exercice, vous ferez varier chacun séparément et observerez comment les performances en termes d’exactitude et d’AUC de la courbe ROC peuvent évoluer.
X_train, y_train, X_test, y_test sont disponibles dans votre espace de travail. Les variables explicatives ont déjà été normalisées avec un StandardScaler(). pandas sous l’alias pd et numpy sous l’alias np sont également disponibles.
Cet exercice fait partie du cours
Prédire le CTR avec le Machine Learning en Python
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Loop over various max_iter configurations
max_iter_list = [10, 20, 30]
for max_iter in ____:
clf = MLPClassifier(hidden_layer_sizes = (4, ),
____ = max_iter, random_state = 0)
# Extract relevant predictions
y_score = clf.fit(____, ____).____(X_test)
y_pred = clf.fit(____, ____).____(X_test)
# Get ROC curve metrics
print("Accuracy for max_iter = %s: %s" %(
max_iter, _____(y_test, ____)))
print("AUC for max_iter = %s: %s" %(
max_iter, ____(y_test, ____[:, 1])))