ComeçarComece gratuitamente

Efeitos da normalização de lotes

A normalização em lote tende a aumentar a velocidade de aprendizado de nossos modelos e a tornar suas curvas de aprendizado mais estáveis. Vamos ver como você compara dois modelos idênticos com e sem normalização de lote.

O modelo que você acabou de criar batchnorm_model está carregado para ser usado. Uma cópia exata dele sem normalização de lote: standard_model, também está disponível. Você pode verificar o endereço summary() no console. X_train Além disso, y_train, X_test e y_test também são carregados para que você possa treinar os dois modelos.

Você comparará as curvas de aprendizado de precisão dos dois modelos, traçando-as com compare_histories_acc().

Você pode verificar a função colando show_code(compare_histories_acc) no console.

Este exercício faz parte do curso

Introdução à aprendizagem profunda com o Keras

Ver Curso

Instruções de exercício

  • Treine o standard_model por 10 épocas, passando nos dados de treinamento e validação, armazenando seu histórico em h1_callback.
  • Treine seu batchnorm_model por 10 épocas, passando pelos dados de treinamento e validação, armazenando seu histórico em h2_callback.
  • Chame compare_histories_acc passando em h1_callback e h2_callback.

Exercício interativo prático

Experimente este exercício preenchendo este código de exemplo.

# Train your standard model, storing its history callback
h1_callback = standard_model.fit(____, ____, validation_data=(____,____), epochs=____, verbose=0)

# Train the batch normalized model you recently built, store its history callback
h2_callback = batchnorm_model.fit(____, ____, validation_data=____, epochs=____, verbose=0)

# Call compare_histories_acc passing in both model histories
compare_histories_acc(____, ____)
Editar e executar código