ComeçarComece de graça

Configurando o otimizador

Agora que já temos a lógica de treinamento, precisamos especificar como otimizar os parâmetros do modelo.

Neste exercício, você vai completar o método configure_optimizers dentro de um módulo PyTorch Lightning usado para tarefas de classificação de imagens. Seu objetivo é configurar um otimizador que atualize os parâmetros do modelo durante o treinamento. Para fazer isso, você vai usar o otimizador Adam com uma taxa de aprendizagem de 1e-3.

Este exercício faz parte do curso

Modelos de IA escaláveis com PyTorch Lightning

Ver curso

Instruções do exercício

  • Crie um otimizador Adam usando os parâmetros do modelo, definindo a taxa de aprendizagem como 1e-3.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Editar e executar o código