Den Optimierer einrichten
Jetzt, wo wir die Trainingslogik haben, müssen wir festlegen, wie die Parameter des Modells optimiert werden sollen.
In dieser Übung füllst du die Methode „ configure_optimizers
“ in einem PyTorch Lightning-Modul aus, das für Bildklassifizierungsaufgaben verwendet wird. Dein Ziel ist es, einen Optimierer einzurichten, der die Parameter des Modells während des Trainings aktualisiert. Dazu nimmst du den Adam-Optimierer mit einer Lernrate von 1e-3
.
Diese Übung ist Teil des Kurses
Skalierbare KI-Modelle mit PyTorch Lightning
Anleitung zur Übung
- Erstelle einen Adam-Optimierer mit den Parametern des Modells und setz die Lernrate auf „
1e-3
“.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
import torch
def configure_optimizers(self):
# Create an Adam optimizer for model parameters
optimizer = ____
return optimizer