Leistung des Modells bewerten
Das PyBooks-Team macht Fortschritte mit der Buchempfehlungs-Engine. Das Modellierungsteam hat dir zwei verschiedene Modelle für die Buchempfehlungs-Engine bei PyBooks bereitgestellt. Ein Modell basiert auf einem LSTM (lstm_model) und das andere verwendet eine GRU (gru_model). Deine Aufgabe ist es, diese Modelle zu bewerten und zu vergleichen.
Die Test-Labels y_test sowie die Vorhersagen y_pred_lstm für lstm_model und y_pred_gru für gru_model liegen vor.
Diese Übung ist Teil des Kurses
Deep Learning für Text mit PyTorch
Anleitung zur Übung
- Definiere Accuracy, Precision, Recall und F1 für die Multiclass-Klassifikation, indem du
num_classesundtaskangibst. - Berechne und gib Accuracy, Precision, Recall und F1-Score für
lstm_modelaus. - Berechne die Bewertungsmetriken in gleicher Weise für
gru_model.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Create an instance of the metrics
accuracy = ____(task=____, num_classes=3)
precision = ____(task=____, num_classes=3)
recall = ____(task=____, num_classes=3)
f1 = ____(task=____, num_classes=3)
# Calculate metrics for the LSTM model
accuracy_1 = accuracy(____, ____)
precision_1 = precision(____, ____)
recall_1 = recall(____, ____)
f1_1 = f1(____, ____)
print("LSTM Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_1, precision_1, recall_1, f1_1))
# Calculate metrics for the GRU model
accuracy_2 = accuracy(____, ____)
precision_2 = precision(____, ____)
recall_2 = recall(____, ____)
f1_2 = f1(____, ____)
print("GRU Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_2, precision_2, recall_2, f1_2))