Preparar un modelo para el entrenamiento distribuido
Has decidido utilizar la biblioteca Hugging Face Accelerator
para entrenar tu modelo de traducción lingüística. ¡Ahora es el momento de preparar tu modelo para el entrenamiento distribuido!
Se han precargado algunos datos:
accelerator
es una instancia deAccelerator
model
,optimizer
,train_dataloader
, ylr_scheduler
se han definido
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Llama a un método para preparar objetos para el entrenamiento distribuido.
- Pasa los objetos de entrenamiento al método, siguiendo el orden de la salida.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)