Configurando o otimizador
Agora que já temos a lógica de treinamento, precisamos especificar como otimizar os parâmetros do modelo.
Neste exercício, você vai completar o método configure_optimizers
dentro de um módulo PyTorch Lightning usado para tarefas de classificação de imagens. Seu objetivo é configurar um otimizador que atualize os parâmetros do modelo durante o treinamento. Para fazer isso, você vai usar o otimizador Adam com uma taxa de aprendizagem de 1e-3
.
Este exercício faz parte do curso
Modelos de IA escaláveis com PyTorch Lightning
Instruções do exercício
- Crie um otimizador Adam usando os parâmetros do modelo, definindo a taxa de aprendizagem como
1e-3
.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
import torch
def configure_optimizers(self):
# Create an Adam optimizer for model parameters
optimizer = ____
return optimizer