LoslegenKostenlos loslegen

Leistung des Modells bewerten

Das PyBooks-Team macht Fortschritte mit der Buchempfehlungs-Engine. Das Modellierungsteam hat dir zwei verschiedene Modelle für die Buchempfehlungs-Engine bei PyBooks bereitgestellt. Ein Modell basiert auf einem LSTM (lstm_model) und das andere verwendet eine GRU (gru_model). Deine Aufgabe ist es, diese Modelle zu bewerten und zu vergleichen.

Die Test-Labels y_test sowie die Vorhersagen y_pred_lstm für lstm_model und y_pred_gru für gru_model liegen vor.

Diese Übung ist Teil des Kurses

Deep Learning für Text mit PyTorch

Kurs anzeigen

Anleitung zur Übung

  • Definiere Accuracy, Precision, Recall und F1 für die Multiclass-Klassifikation, indem du num_classes und task angibst.
  • Berechne und gib Accuracy, Precision, Recall und F1-Score für lstm_model aus.
  • Berechne die Bewertungsmetriken in gleicher Weise für gru_model.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create an instance of the metrics
accuracy = ____(task=____, num_classes=3)
precision = ____(task=____, num_classes=3)
recall = ____(task=____, num_classes=3)
f1 = ____(task=____, num_classes=3)

# Calculate metrics for the LSTM model
accuracy_1 = accuracy(____, ____)
precision_1 = precision(____, ____)
recall_1 = recall(____, ____)
f1_1 = f1(____, ____)
print("LSTM Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_1, precision_1, recall_1, f1_1))

# Calculate metrics for the GRU model
accuracy_2 = accuracy(____, ____)
precision_2 = precision(____, ____)
recall_2 = recall(____, ____)
f1_2 = f1(____, ____)
print("GRU Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_2, precision_2, recall_2, f1_2))
Code bearbeiten und ausführen