CommencerCommencer gratuitement

Configuration de l'optimiseur

Maintenant que nous disposons d'une logique d'entraînement, nous devons préciser comment optimiser les paramètres du modèle.

Dans cet exercice, vous allez compléter la méthode d'configure_optimizers dans un module PyTorch Lightning utilisé pour les tâches de classification d'images. Votre objectif est de configurer un optimiseur qui mettra à jour les paramètres du modèle pendant l'entraînement. Pour ce faire, vous utiliserez l'optimiseur Adam avec un taux d'apprentissage de 1e-3.

Cet exercice fait partie du cours

Modèles d'IA évolutifs avec PyTorch Lightning

Afficher le cours

Instructions

  • Veuillez créer un optimiseur Adam en utilisant les paramètres du modèle, en définissant le taux d'apprentissage sur 1e-3.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

import torch

def configure_optimizers(self):
  	# Create an Adam optimizer for model parameters
    optimizer = ____ 
    return optimizer
Modifier et exécuter le code