Preparar um modelo para treinamento distribuído
Você decidiu usar a biblioteca Hugging Face Accelerator para treinar seu modelo de tradução de idiomas. Agora é hora de preparar seu modelo para o treinamento distribuído!
Alguns dados foram pré-carregados:
acceleratoré uma instância deAcceleratormodelVocê definiu os sitesoptimizer,train_dataloaderelr_scheduler
Este exercício faz parte do curso
Treinamento eficiente de modelos de IA com PyTorch
Instruções do exercício
- Chame um método para preparar objetos para treinamento distribuído.
- Passe os objetos de treinamento para o método, correspondendo à ordem da saída.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)