Preparar um modelo para treinamento distribuído
Você decidiu usar a biblioteca Hugging Face Accelerator
para treinar seu modelo de tradução de idiomas. Agora é hora de preparar seu modelo para o treinamento distribuído!
Alguns dados foram pré-carregados:
accelerator
é uma instância deAccelerator
model
Você definiu os sitesoptimizer
,train_dataloader
elr_scheduler
Este exercício faz parte do curso
Treinamento eficiente de modelos de IA com PyTorch
Instruções do exercício
- Chame um método para preparar objetos para treinamento distribuído.
- Passe os objetos de treinamento para o método, correspondendo à ordem da saída.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
# Pass in the training objects matching the order of the output
____,
____,
____,
____)