ComeçarComece de graça

Adicione normalização em lote à sua rede

A normalização por lote é outra forma de regularização que redimensiona as saídas de uma camada para garantir que elas tenham média 0 e desvio padrão 1. Neste exercício, vamos adicionar normalização por lote à rede neural convolucional que usamos nos exercícios anteriores:

  1. Convolução (15 unidades, tamanho do kernel 2, ativação “relu”)

  2. Normalização em lote

  3. Convolução (5 unidades, tamanho do kernel 2, ativação “relu”)

  4. Aplanar

  5. Densa (3 unidades, ativação “softmax”)

Um objeto Sequential model, junto com os objetos Dense, Conv2D, Flatten e Dropout estão disponíveis na sua área de trabalho.

Este exercício faz parte do curso

Modelagem de imagens com Keras

Ver curso

Instruções do exercício

  • Adicione a primeira camada convolucional. Você pode usar os objetos “ img_rows ” e “ img_cols ” disponíveis na sua área de trabalho para definir o “ input_shape ” dessa camada.
  • Adiciona normalização em lote aplicada às saídas da primeira camada.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Add a convolutional layer
____


# Add batch normalization layer
____

# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))

# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))
Editar e executar o código