MulaiMulai sekarang secara gratis

Batch Normalization

Sebagai penyempurnaan terakhir pada arsitektur model, mari tambahkan layer batch normalization setelah masing-masing dari dua layer linear. Trik batch norm cenderung mempercepat konvergensi pelatihan dan melindungi model dari masalah vanishing dan exploding gradients.

Baik torch.nn maupun torch.nn.init sudah diimpor untuk Anda sebagai nn dan init. Setelah Anda menerapkan perubahan pada arsitektur model, bersiaplah menjawab pertanyaan singkat tentang cara kerja batch normalization!

Latihan ini adalah bagian dari kursus

Deep Learning Lanjutan dengan PyTorch

Lihat Kursus

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

class Net(nn.Module):
    def __init__(self):
        super().__init__()
        self.fc1 = nn.Linear(9, 16)
        # Add two batch normalization layers
        ____ = ____
        self.fc2 = nn.Linear(16, 8)
        ____ = ____
        self.fc3 = nn.Linear(8, 1)
        
        init.kaiming_uniform_(self.fc1.weight)
        init.kaiming_uniform_(self.fc2.weight)
        init.kaiming_uniform_(self.fc3.weight, nonlinearity="sigmoid")
Edit dan Jalankan Kode