Ajoutez la normalisation par lots à votre réseau
La normalisation par lots est une autre forme de régularisation qui redimensionne les sorties d'une couche afin de s'assurer qu'elles ont une moyenne de 0 et un écart type de 1. Dans cet exercice, nous allons ajouter la normalisation par lots au réseau neuronal convolutif que nous avons utilisé dans les exercices précédents :
Convolution (15 unités, taille du noyau 2, activation « relu »)
Normalisation par lots
Convolution (5 unités, taille du noyau 2, activation « relu »)
Flatten
Dense (3 unités, activation « softmax »)
Une séquence d'model, ainsi que les objets Dense, Conv2D, Flatten et Dropout sont disponibles dans votre espace de travail.
Cet exercice fait partie du cours
Modélisation d'images avec Keras
Instructions
- Ajoutez la première couche convolutive. Vous pouvez utiliser les objets
img_rowsetimg_colsdisponibles dans votre espace de travail pour définir l'input_shapede ce calque. - Ajoutez la normalisation par lots appliquée aux sorties de la première couche.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Add a convolutional layer
____
# Add batch normalization layer
____
# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))
# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))