BaşlayınÜcretsiz Başlayın

Modelin performansını değerlendirme

PyBooks ekibi, kitap öneri motorunda önemli ilerlemeler kaydediyor. Modelleme ekibi, PyBooks'taki öneri motorun için hazır iki farklı model sağladı. Modellerden biri LSTM'ye (lstm_model) dayanıyor, diğeri ise GRU (gru_model) kullanıyor. Görevin, bu modelleri değerlendirmek ve karşılaştırmak.

Test etiketleri y_test ve modellerin tahminleri lstm_model için y_pred_lstm ve gru_model için y_pred_gru olarak verildi.

Bu egzersiz

PyTorch ile Metin için Deep Learning

kursunun bir parçasıdır
Kursu Görüntüle

Egzersiz talimatları

  • num_classes ve task belirterek çok sınıflı sınıflandırma için accuracy, precision, recall ve F1'ı tanımla.
  • lstm_model için accuracy, precision, recall ve F1 skorunu hesaplayıp yazdır.
  • Benzer şekilde, gru_model için de değerlendirme metriklerini hesapla.

Uygulamalı interaktif egzersiz

Bu örnek kodu tamamlayarak bu egzersizi bitirin.

# Create an instance of the metrics
accuracy = ____(task=____, num_classes=3)
precision = ____(task=____, num_classes=3)
recall = ____(task=____, num_classes=3)
f1 = ____(task=____, num_classes=3)

# Calculate metrics for the LSTM model
accuracy_1 = accuracy(____, ____)
precision_1 = precision(____, ____)
recall_1 = recall(____, ____)
f1_1 = f1(____, ____)
print("LSTM Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_1, precision_1, recall_1, f1_1))

# Calculate metrics for the GRU model
accuracy_2 = accuracy(____, ____)
precision_2 = precision(____, ____)
recall_2 = recall(____, ____)
f1_2 = f1(____, ____)
print("GRU Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_2, precision_2, recall_2, f1_2))
Kodu Düzenle ve Çalıştır