AdamW con Entrenador
Estás empezando a entrenar un modelo Transformer para simplificar las traducciones de idiomas. Como primer paso, decides utilizar el optimizador AdamW como punto de referencia y la interfaz Trainer
para una configuración rápida. Configura Trainer
para utilizar el AdamW optimizer
.
AdamW
se ha importado previamente de torch.optim
. Se han precargado algunos objetos de entrenamiento: model
, training_args
, train_dataset
, validation_dataset
, compute_metrics
.
Este ejercicio forma parte del curso
Entrenamiento eficiente de modelos de IA con PyTorch
Instrucciones del ejercicio
- Pasa los parámetros de
model
aAdamW
optimizer
. - Pasa el
optimizer
aTrainer
.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())
# Pass the optimizer to Trainer
trainer = Trainer(model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=validation_dataset,
____=(____, None),
compute_metrics=compute_metrics)
trainer.train()