ComenzarEmpieza gratis

Normalización por lotes de un modelo conocido

¿Recuerdas el conjunto de datos de dígitos que entrenaste en el primer ejercicio de este capítulo?

Un problema de clasificación multiclase que resolvió utilizando softmax y 10 neuronas en su capa de salida.

Ahora construirá un nuevo modelo más profundo consistente en 3 capas ocultas de 50 neuronas cada una, utilizando normalización por lotes entre capas. El parámetro kernel_initializer se utiliza para inicializar los pesos de forma similar.

Este ejercicio forma parte del curso

Introducción al aprendizaje profundo con Keras

Ver curso

Instrucciones de ejercicio

  • Importe BatchNormalization desde las capas de tensorflow.keras.
  • Construye tu modelo de red profunda, utiliza 50 neuronas para cada capa oculta añadiendo normalización por lotes entre capas.
  • Compile su modelo con el descenso de gradiente estocástico, sgd, como optimizador.

Ejercicio interactivo práctico

Pruebe este ejercicio completando este código de muestra.

# Import batch normalization from keras layers
from tensorflow.____.____ import ____

# Build your deep network
batchnorm_model = ____
batchnorm_model.add(Dense(____, input_shape=(64,), activation='relu', kernel_initializer='normal'))
batchnorm_model.add(____)
batchnorm_model.add(Dense(____, activation='relu', kernel_initializer='normal'))
batchnorm_model.add(____)
batchnorm_model.add(Dense(____, activation='relu', kernel_initializer='normal'))
batchnorm_model.add(____)
batchnorm_model.add(Dense(10, activation='softmax', kernel_initializer='normal'))

# Compile your model with sgd
batchnorm_model.compile(optimizer=____, loss='categorical_crossentropy', metrics=['accuracy'])
Editar y ejecutar código