Jaringan GRU
Selain LSTM, varian recurrent neural network populer lainnya adalah Gated Recurrent Unit, atau GRU. Daya tariknya ada pada kesederhanaannya: sel GRU memerlukan komputasi lebih sedikit dibandingkan sel LSTM, namun sering kali memberikan kinerja yang setara.
Kode yang disediakan kepada Anda adalah definisi model RNN yang telah Anda tulis sebelumnya. Tugas Anda adalah menyesuaikannya agar menghasilkan jaringan GRU sebagai gantinya. torch dan torch.nn as nn telah diimpor untuk Anda.
Latihan ini adalah bagian dari kursus
Deep Learning Lanjutan dengan PyTorch
Petunjuk latihan
- Perbarui definisi model RNN untuk memperoleh jaringan GRU; tetapkan lapisan GRU ke
self.gru.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
class Net(nn.Module):
def __init__(self):
super().__init__()
# Define RNN layer
self.rnn = nn.RNN(
input_size=1,
hidden_size=32,
num_layers=2,
batch_first=True,
)
self.fc = nn.Linear(32, 1)
def forward(self, x):
h0 = torch.zeros(2, x.size(0), 32)
out, _ = self.rnn(x, h0)
out = self.fc(out[:, -1, :])
return out