Mengoptimalkan model untuk skalabilitas
Menerapkan model AI secara efisien sangat penting untuk aplikasi dunia nyata, di mana kecepatan inferensi, ukuran model, dan efisiensi komputasi berpengaruh. Sekarang Anda akan menguji kemampuan untuk menyimpan dan memuat model untuk deployment. Anda akan menggunakan teknik seperti ekspor TorchScript untuk menyelesaikan alur kerja. Himpunan data yang digunakan adalah variasi dari himpunan data MNIST.
Dengan menyelesaikan latihan ini, Anda akan menyiapkan model yang dioptimalkan untuk deployment sambil menerapkan teknik lanjutan yang dipelajari dalam pelajaran ini.
Himpunan data X_test, y_test serta torch.jit telah dimuat sebelumnya untuk Anda.
Latihan ini adalah bagian dari kursus
Model AI yang Dapat Diskalakan dengan PyTorch Lightning
Petunjuk latihan
- Ekspor model ke TorchScript menggunakan fungsi
trace. - Simpan model ke TorchScript.
- Muat model yang telah disimpan.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Export model to TorchScript
scripted_model = torch.jit.____(model, torch.tensor(X_test[:1], dtype=torch.float32).unsqueeze(1))
# Save model to TorchScript
torch.jit.____(scripted_model, 'model.pt')
# Loaded saved model
loaded_model = torch.jit.____('____.pt')
# Validate inference on test dataset
test_loader = DataLoader(TensorDataset(torch.tensor(X_test, dtype=torch.float32).unsqueeze(1), ____), batch_size=64)
accuracy = evaluate_model(loaded_model, test_loader)
print(f"Optimized model accuracy: {accuracy:.2%}")