Modelin performansını değerlendirme
PyBooks ekibi, kitap öneri motorunda önemli ilerlemeler kaydediyor. Modelleme ekibi, PyBooks'taki öneri motorun için hazır iki farklı model sağladı. Modellerden biri LSTM'ye (lstm_model) dayanıyor, diğeri ise GRU (gru_model) kullanıyor. Görevin, bu modelleri değerlendirmek ve karşılaştırmak.
Test etiketleri y_test ve modellerin tahminleri lstm_model için y_pred_lstm ve gru_model için y_pred_gru olarak verildi.
Bu egzersiz
PyTorch ile Metin için Deep Learning
kursunun bir parçasıdırEgzersiz talimatları
num_classesvetaskbelirterek çok sınıflı sınıflandırma için accuracy, precision, recall ve F1'ı tanımla.lstm_modeliçin accuracy, precision, recall ve F1 skorunu hesaplayıp yazdır.- Benzer şekilde,
gru_modeliçin de değerlendirme metriklerini hesapla.
Uygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Create an instance of the metrics
accuracy = ____(task=____, num_classes=3)
precision = ____(task=____, num_classes=3)
recall = ____(task=____, num_classes=3)
f1 = ____(task=____, num_classes=3)
# Calculate metrics for the LSTM model
accuracy_1 = accuracy(____, ____)
precision_1 = precision(____, ____)
recall_1 = recall(____, ____)
f1_1 = f1(____, ____)
print("LSTM Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_1, precision_1, recall_1, f1_1))
# Calculate metrics for the GRU model
accuracy_2 = accuracy(____, ____)
precision_2 = precision(____, ____)
recall_2 = recall(____, ____)
f1_2 = f1(____, ____)
print("GRU Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_2, precision_2, recall_2, f1_2))