ComenzarEmpieza gratis

Configuración del optimizador

Ahora que tenemos la lógica de entrenamiento, necesitamos especificar cómo optimizar los parámetros del modelo.

En este ejercicio, completarás el método « configure_optimizers » dentro de un módulo PyTorch Lightning utilizado para tareas de clasificación de imágenes. Tu objetivo es configurar un optimizador que actualice los parámetros del modelo durante el entrenamiento. Para completar esto, utilizarás el optimizador Adam con una tasa de aprendizaje de 1e-3.

Este ejercicio forma parte del curso

Modelos de IA escalables con PyTorch Lightning

Ver curso

Instrucciones del ejercicio

  • Crea un optimizador Adam utilizando los parámetros del modelo y estableciendo la tasa de aprendizaje en 1e-3.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Editar y ejecutar código