Otimizando modelos para escalabilidade
Implementar modelos de IA de forma eficiente é essencial para aplicações do mundo real, onde a velocidade de inferência, o tamanho do modelo e a eficiência computacional são importantes. Agora vamos testar sua habilidade de salvar e carregar modelos para implantação. Você vai usar técnicas como a exportação TorchScript para terminar o fluxo de trabalho. O conjunto de dados usado é a variação do conjunto de dados MNIST.
Ao terminar este exercício, você vai ter um modelo otimizado para implantação, usando as técnicas avançadas que aprendeu nesta lição.
X_test
Os conjuntos de dados y_test
e torch.jit
já estão prontos pra você usar.
Este exercício faz parte do curso
Modelos de IA escaláveis com PyTorch Lightning
Instruções do exercício
- Exporta o modelo para o TorchScript usando a função “
trace
”. - Salve o modelo no TorchScript.
- Carregue o modelo que você salvou.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Export model to TorchScript
scripted_model = torch.jit.____(model, torch.tensor(X_test[:1], dtype=torch.float32).unsqueeze(1))
# Save model to TorchScript
torch.jit.____(scripted_model, 'model.pt')
# Loaded saved model
loaded_model = torch.jit.____('____.pt')
# Validate inference on test dataset
test_loader = DataLoader(TensorDataset(torch.tensor(X_test, dtype=torch.float32).unsqueeze(1), ____), batch_size=64)
accuracy = evaluate_model(loaded_model, test_loader)
print(f"Optimized model accuracy: {accuracy:.2%}")