MulaiMulai sekarang secara gratis

Mengoptimalkan model untuk skalabilitas

Menerapkan model AI secara efisien sangat penting untuk aplikasi dunia nyata, di mana kecepatan inferensi, ukuran model, dan efisiensi komputasi berpengaruh. Sekarang Anda akan menguji kemampuan untuk menyimpan dan memuat model untuk deployment. Anda akan menggunakan teknik seperti ekspor TorchScript untuk menyelesaikan alur kerja. Himpunan data yang digunakan adalah variasi dari himpunan data MNIST.

Dengan menyelesaikan latihan ini, Anda akan menyiapkan model yang dioptimalkan untuk deployment sambil menerapkan teknik lanjutan yang dipelajari dalam pelajaran ini.

Himpunan data X_test, y_test serta torch.jit telah dimuat sebelumnya untuk Anda.

Latihan ini adalah bagian dari kursus

Model AI yang Dapat Diskalakan dengan PyTorch Lightning

Lihat Kursus

Petunjuk latihan

  • Ekspor model ke TorchScript menggunakan fungsi trace.
  • Simpan model ke TorchScript.
  • Muat model yang telah disimpan.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Export model to TorchScript
scripted_model = torch.jit.____(model, torch.tensor(X_test[:1], dtype=torch.float32).unsqueeze(1))
# Save model to TorchScript
torch.jit.____(scripted_model, 'model.pt')

# Loaded saved model
loaded_model = torch.jit.____('____.pt')
# Validate inference on test dataset
test_loader = DataLoader(TensorDataset(torch.tensor(X_test, dtype=torch.float32).unsqueeze(1), ____), batch_size=64)

accuracy = evaluate_model(loaded_model, test_loader)

print(f"Optimized model accuracy: {accuracy:.2%}")
Edit dan Jalankan Kode