IniziaInizia gratis

Configurare l'ottimizzatore

Ora che abbiamo la logica di training, dobbiamo specificare come ottimizzare i parametri del modello.

In questo esercizio completerai il metodo configure_optimizers all'interno di un modulo PyTorch Lightning usato per attività di classificazione di immagini. Il tuo obiettivo è configurare un ottimizzatore che aggiorni i parametri del modello durante il training. Per farlo, userai l'ottimizzatore Adam con un learning rate pari a 1e-3.

Questo esercizio fa parte del corso

Modelli di AI scalabili con PyTorch Lightning

Visualizza il corso

Istruzioni dell'esercizio

  • Crea un ottimizzatore Adam usando i parametri del modello, impostando il learning rate a 1e-3.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Modifica ed esegui il codice