BaşlayınÜcretsiz Başlayın

Batch normalization etkileri

Batch normalization genellikle modellerimizin öğrenme hızını artırır ve öğrenme eğrilerini daha kararlı hale getirir. Batch normalization olan ve olmayan iki özdeş modelin nasıl karşılaştırıldığını görelim.

Az önce oluşturduğun batchnorm_model kullanman için yüklendi. Batch normalization içermeyen birebir kopyası standard_model da mevcut. Konsolda summary() çıktılarını inceleyebilirsin. Her iki modeli eğitebilmen için X_train, y_train, X_test ve y_test de yüklendi.

Her iki modelin doğruluk (accuracy) öğrenme eğrilerini compare_histories_acc() ile çizdirerek karşılaştıracaksın.

Konsola show_code(compare_histories_acc) yapıştırarak fonksiyona göz atabilirsin.

Bu egzersiz

Keras ile Deep Learning'e Giriş

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • standard_model modelini eğitim ve doğrulama verilerini geçirerek 10 epoch boyunca eğit ve geçmişini h1_callback içinde sakla.
  • batchnorm_model modelini eğitim ve doğrulama verilerini geçirerek 10 epoch boyunca eğit ve geçmişini h2_callback içinde sakla.
  • compare_histories_acc fonksiyonunu h1_callback ve h2_callback argümanlarıyla çağır.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Train your standard model, storing its history callback
h1_callback = standard_model.fit(____, ____, validation_data=(____,____), epochs=____, verbose=0)

# Train the batch normalized model you recently built, store its history callback
h2_callback = batchnorm_model.fit(____, ____, validation_data=____, epochs=____, verbose=0)

# Call compare_histories_acc passing in both model histories
compare_histories_acc(____, ____)
Kodu Düzenle ve Çalıştır