De optimizer configureren
Nu we de trainingslogica hebben, moeten we aangeven hoe we de parameters van het model optimaliseren.
In deze oefening maak je de configure_optimizers-methode af binnen een PyTorch Lightning-module voor beeldclassificatietaken. Je doel is een optimizer in te stellen die de parameters van het model tijdens het trainen bijwerkt. Hiervoor gebruik je de Adam-optimizer met een learning rate van 1e-3.
Deze oefening maakt deel uit van de cursus
Schaalbare AI-modellen met PyTorch Lightning
Oefeninstructies
- Maak een Adam-optimizer met de parameters van het model en stel de learning rate in op
1e-3.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
import torch
def configure_optimizers(self):
# Create an Adam optimizer for model parameters
optimizer = ____
return optimizer