ComenzarEmpieza gratis

Preparar un modelo para el entrenamiento distribuido

Has decidido utilizar la biblioteca Hugging Face Accelerator para entrenar tu modelo de traducción lingüística. ¡Ahora es el momento de preparar tu modelo para el entrenamiento distribuido!

Se han precargado algunos datos:

  • accelerator es una instancia de Accelerator
  • model, optimizer, train_dataloader, y lr_scheduler se han definido

Este ejercicio forma parte del curso

Entrenamiento eficiente de modelos de IA con PyTorch

Ver curso

Instrucciones del ejercicio

  • Llama a un método para preparar objetos para el entrenamiento distribuido.
  • Pasa los objetos de entrenamiento al método, siguiendo el orden de la salida.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
    # Pass in the training objects matching the order of the output
    ____,
    ____,
    ____,
    ____)
Editar y ejecutar código