Efeitos da normalização de lotes
A normalização em lote tende a aumentar a velocidade de aprendizado de nossos modelos e a tornar suas curvas de aprendizado mais estáveis. Vamos ver como você compara dois modelos idênticos com e sem normalização de lote.
O modelo que você acabou de criar batchnorm_model
está carregado para ser usado. Uma cópia exata dele sem normalização de lote: standard_model
, também está disponível. Você pode verificar o endereço summary()
no console. X_train
Além disso, y_train
, X_test
e y_test
também são carregados para que você possa treinar os dois modelos.
Você comparará as curvas de aprendizado de precisão dos dois modelos, traçando-as com compare_histories_acc()
.
Você pode verificar a função colando show_code(compare_histories_acc)
no console.
Este exercício faz parte do curso
Introdução à aprendizagem profunda com o Keras
Instruções de exercício
- Treine o
standard_model
por 10 épocas, passando nos dados de treinamento e validação, armazenando seu histórico emh1_callback
. - Treine seu
batchnorm_model
por 10 épocas, passando pelos dados de treinamento e validação, armazenando seu histórico emh2_callback
. - Chame
compare_histories_acc
passando emh1_callback
eh2_callback
.
Exercício interativo prático
Experimente este exercício preenchendo este código de exemplo.
# Train your standard model, storing its history callback
h1_callback = standard_model.fit(____, ____, validation_data=(____,____), epochs=____, verbose=0)
# Train the batch normalized model you recently built, store its history callback
h2_callback = batchnorm_model.fit(____, ____, validation_data=____, epochs=____, verbose=0)
# Call compare_histories_acc passing in both model histories
compare_histories_acc(____, ____)