Configurare l'ottimizzatore
Ora che abbiamo la logica di training, dobbiamo specificare come ottimizzare i parametri del modello.
In questo esercizio completerai il metodo configure_optimizers all'interno di un modulo PyTorch Lightning usato per attività di classificazione di immagini. Il tuo obiettivo è configurare un ottimizzatore che aggiorni i parametri del modello durante il training. Per farlo, userai l'ottimizzatore Adam con un learning rate pari a 1e-3.
Questo esercizio fa parte del corso
Modelli di AI scalabili con PyTorch Lightning
Istruzioni dell'esercizio
- Crea un ottimizzatore Adam usando i parametri del modello, impostando il learning rate a
1e-3.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
import torch
def configure_optimizers(self):
# Create an Adam optimizer for model parameters
optimizer = ____
return optimizer