AdamW com o Accelerator
Você deseja personalizar o loop de treinamento usando Accelerator
e usar o AdamW como um otimizador de benchmark para o modelo de tradução de idiomas. Crie o loop de treinamento para usar o AdamW.
Alguns objetos de treinamento foram pré-carregados e definidos, incluindo model
, train_dataloader
e accelerator
.
Este exercício faz parte do curso
Treinamento eficiente de modelos de IA com PyTorch
Instruções do exercício
- Prepare objetos de treinamento para treinamento distribuído antes do loop.
- Atualize os parâmetros do modelo no loop de treinamento.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
optimizer = AdamW(params=model.parameters())
# Prepare training objects for distributed training
model, optimizer, train_dataloader = ____.____(model, optimizer, train_dataloader)
for batch in train_dataloader:
inputs, targets = batch["input_ids"], batch["labels"]
outputs = model(inputs, labels=targets)
loss = outputs.loss
accelerator.backward(loss)
# Update the model parameters
____.____()
optimizer.zero_grad()
print(f"Loss = {loss}")