Añade normalización por lotes a tu red
La normalización por lotes es otra forma de regularización que reescala las salidas de una capa para garantizar que tengan una media de 0 y una desviación estándar de 1. En este ejercicio, añadiremos la normalización por lotes a la red neuronal convolucional que hemos utilizado en ejercicios anteriores:
Convolución (15 unidades, tamaño del núcleo 2, activación «relu»)
Normalización por lotes
Convolución (5 unidades, tamaño del núcleo 2, activación «relu»)
Aplanar
Densa (3 unidades, activación «softmax»)
En tu espacio de trabajo están disponibles los objetos « model
» junto con « Dense
», « Conv2D
», « Flatten
» y « Dropout
».
Este ejercicio forma parte del curso
Modelado de imágenes con Keras
Instrucciones del ejercicio
- Añade la primera capa convolucional. Puedes utilizar los objetos «
img_rows
» y «img_cols
» disponibles en tu espacio de trabajo para definir el «input_shape
» de esta capa. - Añade la normalización por lotes aplicada a las salidas de la primera capa.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
# Add a convolutional layer
____
# Add batch normalization layer
____
# Add another convolutional layer
model.add(Conv2D(5, kernel_size=2, activation='relu'))
# Flatten and feed to output layer
model.add(Flatten())
model.add(Dense(3, activation='softmax'))