ComeçarComece de graça

AdamW com o Accelerator

Você deseja personalizar o loop de treinamento usando Accelerator e usar o AdamW como um otimizador de benchmark para o modelo de tradução de idiomas. Crie o loop de treinamento para usar o AdamW.

Alguns objetos de treinamento foram pré-carregados e definidos, incluindo model, train_dataloader e accelerator.

Este exercício faz parte do curso

Treinamento eficiente de modelos de IA com PyTorch

Ver curso

Instruções do exercício

  • Prepare objetos de treinamento para treinamento distribuído antes do loop.
  • Atualize os parâmetros do modelo no loop de treinamento.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

optimizer = AdamW(params=model.parameters())

# Prepare training objects for distributed training
model, optimizer, train_dataloader = ____.____(model, optimizer, train_dataloader)

for batch in train_dataloader:
    inputs, targets = batch["input_ids"], batch["labels"]
    outputs = model(inputs, labels=targets)
    loss = outputs.loss
    accelerator.backward(loss)
    # Update the model parameters
    ____.____()
    optimizer.zero_grad()
    print(f"Loss = {loss}")
Editar e executar o código