Aan de slagGa gratis aan de slag

Configuring the optimizer

Now that we have training logic, we need to specify how to optimize the model's parameters.

In this exercise, you'll complete the configure_optimizers method within a PyTorch Lightning module used for image classification tasks. Your goal is to set up an optimizer that will update the model's parameters during training. To complete this you'll use the Adam optimizer with a learning rate of 1e-3.

Deze oefening maakt deel uit van de cursus

Scalable AI Models with PyTorch Lightning

Cursus bekijken

Oefeninstructies

  • Create an Adam optimizer using the model's parameters, setting the learning rate to 1e-3.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Code bewerken en uitvoeren