LoslegenKostenlos loslegen

Den Optimierer einrichten

Jetzt, wo wir die Trainingslogik haben, müssen wir festlegen, wie die Parameter des Modells optimiert werden sollen.

In dieser Übung füllst du die Methode „ configure_optimizers “ in einem PyTorch Lightning-Modul aus, das für Bildklassifizierungsaufgaben verwendet wird. Dein Ziel ist es, einen Optimierer einzurichten, der die Parameter des Modells während des Trainings aktualisiert. Dazu nimmst du den Adam-Optimierer mit einer Lernrate von 1e-3.

Diese Übung ist Teil des Kurses

Skalierbare KI-Modelle mit PyTorch Lightning

Kurs anzeigen

Anleitung zur Übung

  • Erstelle einen Adam-Optimierer mit den Parametern des Modells und setz die Lernrate auf „ 1e-3 “.

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Code bearbeiten und ausführen