ComeçarComece de graça

Otimizando modelos para escalabilidade

Implementar modelos de IA de forma eficiente é essencial para aplicações do mundo real, onde a velocidade de inferência, o tamanho do modelo e a eficiência computacional são importantes. Agora vamos testar sua habilidade de salvar e carregar modelos para implantação. Você vai usar técnicas como a exportação TorchScript para terminar o fluxo de trabalho. O conjunto de dados usado é a variação do conjunto de dados MNIST.

Ao terminar este exercício, você vai ter um modelo otimizado para implantação, usando as técnicas avançadas que aprendeu nesta lição.

X_testOs conjuntos de dados y_test e torch.jit já estão prontos pra você usar.

Este exercício faz parte do curso

Modelos de IA escaláveis com PyTorch Lightning

Ver curso

Instruções do exercício

  • Exporta o modelo para o TorchScript usando a função “ trace ”.
  • Salve o modelo no TorchScript.
  • Carregue o modelo que você salvou.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Export model to TorchScript
scripted_model = torch.jit.____(model, torch.tensor(X_test[:1], dtype=torch.float32).unsqueeze(1))
# Save model to TorchScript
torch.jit.____(scripted_model, 'model.pt')

# Loaded saved model
loaded_model = torch.jit.____('____.pt')
# Validate inference on test dataset
test_loader = DataLoader(TensorDataset(torch.tensor(X_test, dtype=torch.float32).unsqueeze(1), ____), batch_size=64)

accuracy = evaluate_model(loaded_model, test_loader)

print(f"Optimized model accuracy: {accuracy:.2%}")
Editar e executar o código