ComenzarEmpieza gratis

Optimización de modelos para la escalabilidad

Implementar modelos de IA de manera eficiente es fundamental para aplicaciones del mundo real en las que la velocidad de inferencia, el tamaño del modelo y la eficiencia computacional son factores importantes. Ahora pondremos a prueba tu capacidad para guardar y cargar modelos para su implementación. Utilizarás técnicas como la exportación TorchScript para completar el flujo de trabajo. El conjunto de datos utilizado es la variación del conjunto de datos MNIST.

Al completar este ejercicio, habrás preparado un modelo optimizado para su implementación, al tiempo que habrás aplicado las técnicas avanzadas aprendidas en esta lección.

X_testSe han precargado los conjuntos de datos « y_test » y « torch.jit ».

Este ejercicio forma parte del curso

Modelos de IA escalables con PyTorch Lightning

Ver curso

Instrucciones del ejercicio

  • Exporta el modelo a TorchScript utilizando la función « trace ».
  • Guarda el modelo en TorchScript.
  • Carga el modelo guardado.

Ejercicio interactivo práctico

Prueba este ejercicio completando el código de muestra.

# Export model to TorchScript
scripted_model = torch.jit.____(model, torch.tensor(X_test[:1], dtype=torch.float32).unsqueeze(1))
# Save model to TorchScript
torch.jit.____(scripted_model, 'model.pt')

# Loaded saved model
loaded_model = torch.jit.____('____.pt')
# Validate inference on test dataset
test_loader = DataLoader(TensorDataset(torch.tensor(X_test, dtype=torch.float32).unsqueeze(1), ____), batch_size=64)

accuracy = evaluate_model(loaded_model, test_loader)

print(f"Optimized model accuracy: {accuracy:.2%}")
Editar y ejecutar código