CommencerCommencer gratuitement

Ajoutez la normalisation par lots à votre réseau

La normalisation par lots est une autre forme de régularisation qui redimensionne les sorties d'une couche afin de s'assurer qu'elles ont une moyenne de 0 et un écart type de 1. Dans cet exercice, nous allons ajouter la normalisation par lots au réseau neuronal convolutif que nous avons utilisé dans les exercices précédents :

  1. Convolution (15 unités, taille du noyau 2, activation « relu »)

  2. Normalisation par lots

  3. Convolution (5 unités, taille du noyau 2, activation « relu »)

  4. Flatten

  5. Dense (3 unités, activation « softmax »)

Une séquence d'model, ainsi que les objets Dense, Conv2D, Flatten et Dropout sont disponibles dans votre espace de travail.

Cet exercice fait partie du cours

Modélisation d'images avec Keras

Afficher le cours

Instructions

  • Ajoutez la première couche convolutive. Vous pouvez utiliser les objets img_rows et img_cols disponibles dans votre espace de travail pour définir l'input_shape de ce calque.
  • Ajoutez la normalisation par lots appliquée aux sorties de la première couche.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Add a convolutional layer
____


# Add batch normalization layer
____

# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))

# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))
Modifier et exécuter le code