Ajoutez la normalisation par lots à votre réseau
La normalisation par lots est une autre forme de régularisation qui redimensionne les sorties d'une couche afin de s'assurer qu'elles ont une moyenne de 0 et un écart type de 1. Dans cet exercice, nous allons ajouter la normalisation par lots au réseau neuronal convolutif que nous avons utilisé dans les exercices précédents :
Convolution (15 unités, taille du noyau 2, activation « relu »)
Normalisation par lots
Convolution (5 unités, taille du noyau 2, activation « relu »)
Flatten
Dense (3 unités, activation « softmax »)
Une séquence d'model
, ainsi que les objets Dense
, Conv2D
, Flatten
et Dropout
sont disponibles dans votre espace de travail.
Cet exercice fait partie du cours
Modélisation d'images avec Keras
Instructions
- Ajoutez la première couche convolutive. Vous pouvez utiliser les objets
img_rows
etimg_cols
disponibles dans votre espace de travail pour définir l'input_shape
de ce calque. - Ajoutez la normalisation par lots appliquée aux sorties de la première couche.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Add a convolutional layer
____
# Add batch normalization layer
____
# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))
# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))