Batch Normalization
Sebagai penyempurnaan terakhir pada arsitektur model, mari tambahkan layer batch normalization setelah masing-masing dari dua layer linear. Trik batch norm cenderung mempercepat konvergensi pelatihan dan melindungi model dari masalah vanishing dan exploding gradients.
Baik torch.nn maupun torch.nn.init sudah diimpor untuk Anda sebagai nn dan init. Setelah Anda menerapkan perubahan pada arsitektur model, bersiaplah menjawab pertanyaan singkat tentang cara kerja batch normalization!
Latihan ini adalah bagian dari kursus
Deep Learning Lanjutan dengan PyTorch
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
class Net(nn.Module):
def __init__(self):
super().__init__()
self.fc1 = nn.Linear(9, 16)
# Add two batch normalization layers
____ = ____
self.fc2 = nn.Linear(16, 8)
____ = ____
self.fc3 = nn.Linear(8, 1)
init.kaiming_uniform_(self.fc1.weight)
init.kaiming_uniform_(self.fc2.weight)
init.kaiming_uniform_(self.fc3.weight, nonlinearity="sigmoid")