Aan de slagGa gratis aan de slag

De optimizer configureren

Nu we de trainingslogica hebben, moeten we aangeven hoe we de parameters van het model optimaliseren.

In deze oefening maak je de configure_optimizers-methode af binnen een PyTorch Lightning-module voor beeldclassificatietaken. Je doel is een optimizer in te stellen die de parameters van het model tijdens het trainen bijwerkt. Hiervoor gebruik je de Adam-optimizer met een learning rate van 1e-3.

Deze oefening maakt deel uit van de cursus

Schaalbare AI-modellen met PyTorch Lightning

Cursus bekijken

Oefeninstructies

  • Maak een Adam-optimizer met de parameters van het model en stel de learning rate in op 1e-3.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Code bewerken en uitvoeren