Adicione normalização em lote à sua rede
A normalização por lote é outra forma de regularização que redimensiona as saídas de uma camada para garantir que elas tenham média 0 e desvio padrão 1. Neste exercício, vamos adicionar normalização por lote à rede neural convolucional que usamos nos exercícios anteriores:
Convolução (15 unidades, tamanho do kernel 2, ativação “relu”)
Normalização em lote
Convolução (5 unidades, tamanho do kernel 2, ativação “relu”)
Aplanar
Densa (3 unidades, ativação “softmax”)
Um objeto Sequential model
, junto com os objetos Dense
, Conv2D
, Flatten
e Dropout
estão disponíveis na sua área de trabalho.
Este exercício faz parte do curso
Modelagem de imagens com Keras
Instruções do exercício
- Adicione a primeira camada convolucional. Você pode usar os objetos “
img_rows
” e “img_cols
” disponíveis na sua área de trabalho para definir o “input_shape
” dessa camada. - Adiciona normalização em lote aplicada às saídas da primeira camada.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Add a convolutional layer
____
# Add batch normalization layer
____
# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))
# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))