Creare un modello LSTM per il testo
In PyBooks, il team cerca costantemente di migliorare l’esperienza utente sfruttando i più recenti progressi tecnologici. In questa direzione, ti hanno affidato un compito importante. Vogliono che tu esplori il potenziale di un altro strumento potente: le LSTM, note per catturare meglio le complessità nei pattern dei dati. Stai lavorando con lo stesso insieme di dati Newsgroup, con l’obiettivo invariato: classificare gli articoli di news in tre categorie distinte:
rec.autos, sci.med e comp.graphics.
I seguenti pacchetti sono già stati caricati per te: torch, nn, optim.
Questo esercizio fa parte del corso
Deep Learning per il testo con PyTorch
Istruzioni dell'esercizio
- Configura un modello LSTM completando i livelli LSTM e lineare con i parametri necessari.
- Inizializza il modello con i parametri richiesti.
- Allena il modello LSTM azzerando i gradienti e passando i dati di input
X_train_seqattraverso il modello. - Calcola la loss in base agli
outputsprevisti e alle etichette vere.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Initialize the LSTM and the output layer with parameters
class LSTMModel(nn.Module):
def __init__(self, input_size, hidden_size, num_layers, num_classes):
super(LSTMModel, self).__init__()
self.hidden_size = hidden_size
self.num_layers = num_layers
self.lstm = nn.LSTM(____, ____, ____, batch_first=True)
self.fc = nn.Linear(____, ____)
def forward(self, x):
h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size)
c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_size)
out, _ = self.lstm(x, (h0, c0))
out = out[:, -1, :]
out = self.fc(out)
return out
# Initialize model with required parameters
lstm_model = LSTMModel(____, ____, ____, ____)
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(lstm_model.parameters(), lr=0.01)
# Train the model by passing the correct parameters and zeroing the gradient
for epoch in range(10):
optimizer.____
outputs = lstm_model(____)
loss = criterion(____, y_train_seq)
loss.backward()
optimizer.step()
print(f'Epoch: {epoch+1}, Loss: {loss.item()}')