Batch normalization etkileri
Batch normalization genellikle modellerimizin öğrenme hızını artırır ve öğrenme eğrilerini daha kararlı hale getirir. Batch normalization olan ve olmayan iki özdeş modelin nasıl karşılaştırıldığını görelim.
Az önce oluşturduğun batchnorm_model kullanman için yüklendi. Batch normalization içermeyen birebir kopyası standard_model da mevcut. Konsolda summary() çıktılarını inceleyebilirsin. Her iki modeli eğitebilmen için X_train, y_train, X_test ve y_test de yüklendi.
Her iki modelin doğruluk (accuracy) öğrenme eğrilerini compare_histories_acc() ile çizdirerek karşılaştıracaksın.
Konsola show_code(compare_histories_acc) yapıştırarak fonksiyona göz atabilirsin.
Bu egzersiz
Keras ile Deep Learning'e Giriş
kursunun bir parçasıdırEgzersiz talimatları
standard_modelmodelini eğitim ve doğrulama verilerini geçirerek 10 epoch boyunca eğit ve geçmişinih1_callbackiçinde sakla.batchnorm_modelmodelini eğitim ve doğrulama verilerini geçirerek 10 epoch boyunca eğit ve geçmişinih2_callbackiçinde sakla.compare_histories_accfonksiyonunuh1_callbackveh2_callbackargümanlarıyla çağır.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Train your standard model, storing its history callback
h1_callback = standard_model.fit(____, ____, validation_data=(____,____), epochs=____, verbose=0)
# Train the batch normalized model you recently built, store its history callback
h2_callback = batchnorm_model.fit(____, ____, validation_data=____, epochs=____, verbose=0)
# Call compare_histories_acc passing in both model histories
compare_histories_acc(____, ____)