ComenzarEmpieza gratis

AdamW con Entrenador

Estás empezando a entrenar un modelo Transformer para simplificar las traducciones de idiomas. Como primer paso, decides utilizar el optimizador AdamW como punto de referencia y la interfaz Trainer para una configuración rápida. Configura Trainer para utilizar el AdamW optimizer.

AdamW se ha importado previamente de torch.optim. Se han precargado algunos objetos de entrenamiento: model, training_args, train_dataset, validation_dataset, compute_metrics.

Este ejercicio forma parte del curso

Entrenamiento eficiente de modelos de IA con PyTorch

Ver curso

Instrucciones del ejercicio

  • Pasa los parámetros de model a AdamW optimizer.
  • Pasa el optimizer a Trainer.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

# Pass the model parameters to the AdamW optimizer
optimizer = ____(params=____.____())

# Pass the optimizer to Trainer
trainer = Trainer(model=model,
                  args=training_args,
                  train_dataset=train_dataset,
                  eval_dataset=validation_dataset,
                  ____=(____, None),
                  compute_metrics=compute_metrics)

trainer.train()
Editar y ejecutar código