CommencerCommencer gratuitement

Effets de la normalisation par lot

La normalisation par lot a tendance à accélérer l’apprentissage de nos modèles et à rendre leurs courbes d’apprentissage plus stables. Voyons comment se comparent deux modèles identiques, l’un avec et l’autre sans normalisation par lot.

Le modèle que vous venez de construire, batchnorm_model, est chargé et prêt à l’emploi. Une copie exacte de celui-ci sans normalisation par lot, standard_model, est également disponible. Vous pouvez consulter leur summary() dans la console. X_train, y_train, X_test et y_test sont aussi chargés pour que vous puissiez entraîner les deux modèles.

Vous comparerez les courbes d’apprentissage de l’accuracy pour les deux modèles en les traçant avec compare_histories_acc().

Vous pouvez consulter la fonction en collant show_code(compare_histories_acc) dans la console.

Cet exercice fait partie du cours

Introduction au Deep Learning avec Keras

Afficher le cours

Instructions

  • Entraînez standard_model pendant 10 époques en passant les données d’entraînement et de validation, et stockez son historique dans h1_callback.
  • Entraînez votre batchnorm_model pendant 10 époques en passant les données d’entraînement et de validation, et stockez son historique dans h2_callback.
  • Appelez compare_histories_acc en lui passant h1_callback et h2_callback.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Train your standard model, storing its history callback
h1_callback = standard_model.fit(____, ____, validation_data=(____,____), epochs=____, verbose=0)

# Train the batch normalized model you recently built, store its history callback
h2_callback = batchnorm_model.fit(____, ____, validation_data=____, epochs=____, verbose=0)

# Call compare_histories_acc passing in both model histories
compare_histories_acc(____, ____)
Modifier et exécuter le code