Optimización de modelos para la escalabilidad
Implementar modelos de IA de manera eficiente es fundamental para aplicaciones del mundo real en las que la velocidad de inferencia, el tamaño del modelo y la eficiencia computacional son factores importantes. Ahora pondremos a prueba tu capacidad para guardar y cargar modelos para su implementación. Utilizarás técnicas como la exportación TorchScript para completar el flujo de trabajo. El conjunto de datos utilizado es la variación del conjunto de datos MNIST.
Al completar este ejercicio, habrás preparado un modelo optimizado para su implementación, al tiempo que habrás aplicado las técnicas avanzadas aprendidas en esta lección.
X_test
Se han precargado los conjuntos de datos « y_test
» y « torch.jit
».
Este ejercicio forma parte del curso
Modelos de IA escalables con PyTorch Lightning
Instrucciones del ejercicio
- Exporta el modelo a TorchScript utilizando la función «
trace
». - Guarda el modelo en TorchScript.
- Carga el modelo guardado.
Ejercicio interactivo práctico
Prueba este ejercicio completando el código de muestra.
# Export model to TorchScript
scripted_model = torch.jit.____(model, torch.tensor(X_test[:1], dtype=torch.float32).unsqueeze(1))
# Save model to TorchScript
torch.jit.____(scripted_model, 'model.pt')
# Loaded saved model
loaded_model = torch.jit.____('____.pt')
# Validate inference on test dataset
test_loader = DataLoader(TensorDataset(torch.tensor(X_test, dtype=torch.float32).unsqueeze(1), ____), batch_size=64)
accuracy = evaluate_model(loaded_model, test_loader)
print(f"Optimized model accuracy: {accuracy:.2%}")