MulaiMulai sekarang secara gratis

Jaringan GRU

Selain LSTM, varian recurrent neural network populer lainnya adalah Gated Recurrent Unit, atau GRU. Daya tariknya ada pada kesederhanaannya: sel GRU memerlukan komputasi lebih sedikit dibandingkan sel LSTM, namun sering kali memberikan kinerja yang setara.

Kode yang disediakan kepada Anda adalah definisi model RNN yang telah Anda tulis sebelumnya. Tugas Anda adalah menyesuaikannya agar menghasilkan jaringan GRU sebagai gantinya. torch dan torch.nn as nn telah diimpor untuk Anda.

Latihan ini adalah bagian dari kursus

Deep Learning Lanjutan dengan PyTorch

Lihat Kursus

Petunjuk latihan

  • Perbarui definisi model RNN untuk memperoleh jaringan GRU; tetapkan lapisan GRU ke self.gru.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

class Net(nn.Module):
    def __init__(self):
        super().__init__()
        # Define RNN layer
        self.rnn = nn.RNN(
            input_size=1,
            hidden_size=32,
            num_layers=2,
            batch_first=True,
        )
        self.fc = nn.Linear(32, 1)

    def forward(self, x):
        h0 = torch.zeros(2, x.size(0), 32)
        out, _ = self.rnn(x, h0)  
        out = self.fc(out[:, -1, :])
        return out
Edit dan Jalankan Kode