Preparar un modelo para el entrenamiento distribuido
Has decidido utilizar la biblioteca Hugging Face Accelerator para entrenar tu modelo de traducción lingüística. ¡Ahora es el momento de preparar tu modelo para el entrenamiento distribuido!
Se han precargado algunos datos:
acceleratores una instancia deAcceleratormodel,optimizer,train_dataloader, ylr_schedulerse han definido
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Llama a un método para preparar objetos para el entrenamiento distribuido.
- Pasa los objetos de entrenamiento al método, siguiendo el orden de la salida.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)