ComeçarComece de graça

Preparar um modelo para treinamento distribuído

Você decidiu usar a biblioteca Hugging Face Accelerator para treinar seu modelo de tradução de idiomas. Agora é hora de preparar seu modelo para o treinamento distribuído!

Alguns dados foram pré-carregados:

  • accelerator é uma instância de Accelerator
  • modelVocê definiu os sites optimizer, train_dataloader e lr_scheduler

Este exercício faz parte do curso

Treinamento eficiente de modelos de IA com PyTorch

Ver curso

Instruções do exercício

  • Chame um método para preparar objetos para treinamento distribuído.
  • Passe os objetos de treinamento para o método, correspondendo à ordem da saída.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Prepare objects for distributed training
model, optimizer, train_dataloader, lr_scheduler = ____.____(
    # Pass in the training objects matching the order of the output
    ____,
    ____,
    ____,
    ____)
Editar e executar o código