Configuración del optimizador
Ahora que tenemos la lógica de entrenamiento, necesitamos especificar cómo optimizar los parámetros del modelo.
En este ejercicio, completarás el método « configure_optimizers
» dentro de un módulo PyTorch Lightning utilizado para tareas de clasificación de imágenes. Tu objetivo es configurar un optimizador que actualice los parámetros del modelo durante el entrenamiento. Para completar esto, utilizarás el optimizador Adam con una tasa de aprendizaje de 1e-3
.
Este ejercicio forma parte del curso
Modelos de IA escalables con PyTorch Lightning
Instrucciones del ejercicio
- Crea un optimizador Adam utilizando los parámetros del modelo y estableciendo la tasa de aprendizaje en
1e-3
.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
import torch
def configure_optimizers(self):
# Create an Adam optimizer for model parameters
optimizer = ____
return optimizer