ComenzarEmpieza gratis

Prepara un modelo para entrenamiento distribuido

Has decidido usar la librería Accelerator de Hugging Face para entrenar tu modelo de traducción automática. ¡Ahora toca preparar el modelo para entrenamiento distribuido!

Ya hay algunos datos precargados:

  • accelerator es una instancia de Accelerator
  • model, optimizer, train_dataloader y lr_scheduler ya están definidos

Este ejercicio forma parte del curso

Entrenamiento eficiente de modelos de IA con PyTorch

Ver curso

Instrucciones del ejercicio

  • Llama a un método para preparar los objetos para el entrenamiento distribuido.
  • Pasa los objetos de entrenamiento al método, respetando el orden del resultado.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
    # Pass in the training objects matching the order of the output
    ____,
    ____,
    ____,
    ____)
Editar y ejecutar código