Efeitos da normalização de lotes
A normalização em lote tende a aumentar a velocidade de aprendizado de nossos modelos e a tornar suas curvas de aprendizado mais estáveis. Vamos ver como você compara dois modelos idênticos com e sem normalização de lote.
O modelo que você acabou de criar batchnorm_model está carregado para ser usado. Uma cópia exata dele sem normalização de lote: standard_model, também está disponível. Você pode verificar o endereço summary() no console. X_train Além disso, y_train, X_test e y_test também são carregados para que você possa treinar os dois modelos.
Você comparará as curvas de aprendizado de precisão dos dois modelos, traçando-as com compare_histories_acc().
Você pode verificar a função colando show_code(compare_histories_acc) no console.
Este exercício faz parte do curso
Introdução à aprendizagem profunda com o Keras
Instruções do exercício
- Treine o
standard_modelpor 10 épocas, passando nos dados de treinamento e validação, armazenando seu histórico emh1_callback. - Treine seu
batchnorm_modelpor 10 épocas, passando pelos dados de treinamento e validação, armazenando seu histórico emh2_callback. - Chame
compare_histories_accpassando emh1_callbackeh2_callback.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Train your standard model, storing its history callback
h1_callback = standard_model.fit(____, ____, validation_data=(____,____), epochs=____, verbose=0)
# Train the batch normalized model you recently built, store its history callback
h2_callback = batchnorm_model.fit(____, ____, validation_data=____, epochs=____, verbose=0)
# Call compare_histories_acc passing in both model histories
compare_histories_acc(____, ____)