AdamW con Entrenador
Estás empezando a entrenar un modelo Transformer para simplificar las traducciones de idiomas. Como primer paso, decides utilizar el optimizador AdamW como punto de referencia y la interfaz Trainer para una configuración rápida. Configura Trainer para utilizar el AdamW optimizer.
AdamW se ha importado previamente de torch.optim. Se han precargado algunos objetos de entrenamiento: model, training_args, train_dataset, validation_dataset, compute_metrics.
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Pasa los parámetros de
modelaAdamWoptimizer. - Pasa el
optimizeraTrainer.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())
# Pass the optimizer to Trainer
trainer = Trainer(model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=validation_dataset,
____=(____, None),
compute_metrics=compute_metrics)
trainer.train()