ComenzarEmpieza gratis

Añade normalización por lotes a tu red

La normalización por lotes es otra forma de regularización que reescala las salidas de una capa para garantizar que tengan una media de 0 y una desviación estándar de 1. En este ejercicio, añadiremos la normalización por lotes a la red neuronal convolucional que hemos utilizado en ejercicios anteriores:

  1. Convolución (15 unidades, tamaño del núcleo 2, activación «relu»)

  2. Normalización por lotes

  3. Convolución (5 unidades, tamaño del núcleo 2, activación «relu»)

  4. Aplanar

  5. Densa (3 unidades, activación «softmax»)

En tu espacio de trabajo están disponibles los objetos « model » junto con « Dense », « Conv2D », « Flatten » y « Dropout ».

Este ejercicio forma parte del curso

Modelado de imágenes con Keras

Ver curso

Instrucciones del ejercicio

  • Añade la primera capa convolucional. Puedes utilizar los objetos « img_rows » y « img_cols » disponibles en tu espacio de trabajo para definir el « input_shape » de esta capa.
  • Añade la normalización por lotes aplicada a las salidas de la primera capa.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

# Add a convolutional layer
____


# Add batch normalization layer
____

# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))

# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))
Editar y ejecutar código