De prestaties van het model evalueren
Het PyBooks-team boekt vooruitgang met de boekaanbevelingsengine. Het modelleeringteam heeft twee verschillende modellen voor je klaargezet voor de boekaanbevelingsengine van PyBooks. Eén model is gebaseerd op LSTM (lstm_model) en het andere gebruikt een GRU (gru_model). Jij krijgt de taak om deze modellen te evalueren en te vergelijken.
De testlabels zijn y_test en de voorspellingen van het model zijn y_pred_lstm voor lstm_model en y_pred_gru voor gru_model.
Deze oefening maakt deel uit van de cursus
Deep Learning voor tekst met PyTorch
Oefeninstructies
- Definieer accuracy, precision, recall en F1 voor multi-class-classificatie door
num_classesentaskop te geven. - Bereken en print de accuracy, precision, recall en F1-score voor
lstm_model. - Bereken op dezelfde manier de evaluatiemetrics voor
gru_model.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create an instance of the metrics
accuracy = ____(task=____, num_classes=3)
precision = ____(task=____, num_classes=3)
recall = ____(task=____, num_classes=3)
f1 = ____(task=____, num_classes=3)
# Calculate metrics for the LSTM model
accuracy_1 = accuracy(____, ____)
precision_1 = precision(____, ____)
recall_1 = recall(____, ____)
f1_1 = f1(____, ____)
print("LSTM Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_1, precision_1, recall_1, f1_1))
# Calculate metrics for the GRU model
accuracy_2 = accuracy(____, ____)
precision_2 = precision(____, ____)
recall_2 = recall(____, ____)
f1_2 = f1(____, ____)
print("GRU Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_2, precision_2, recall_2, f1_2))