Aan de slagGa gratis aan de slag

De prestaties van het model evalueren

Het PyBooks-team boekt vooruitgang met de boekaanbevelingsengine. Het modelleeringteam heeft twee verschillende modellen voor je klaargezet voor de boekaanbevelingsengine van PyBooks. Eén model is gebaseerd op LSTM (lstm_model) en het andere gebruikt een GRU (gru_model). Jij krijgt de taak om deze modellen te evalueren en te vergelijken.

De testlabels zijn y_test en de voorspellingen van het model zijn y_pred_lstm voor lstm_model en y_pred_gru voor gru_model.

Deze oefening maakt deel uit van de cursus

Deep Learning voor tekst met PyTorch

Cursus bekijken

Oefeninstructies

  • Definieer accuracy, precision, recall en F1 voor multi-class-classificatie door num_classes en task op te geven.
  • Bereken en print de accuracy, precision, recall en F1-score voor lstm_model.
  • Bereken op dezelfde manier de evaluatiemetrics voor gru_model.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Create an instance of the metrics
accuracy = ____(task=____, num_classes=3)
precision = ____(task=____, num_classes=3)
recall = ____(task=____, num_classes=3)
f1 = ____(task=____, num_classes=3)

# Calculate metrics for the LSTM model
accuracy_1 = accuracy(____, ____)
precision_1 = precision(____, ____)
recall_1 = recall(____, ____)
f1_1 = f1(____, ____)
print("LSTM Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_1, precision_1, recall_1, f1_1))

# Calculate metrics for the GRU model
accuracy_2 = accuracy(____, ____)
precision_2 = precision(____, ____)
recall_2 = recall(____, ____)
f1_2 = f1(____, ____)
print("GRU Model - Accuracy: {}, Precision: {}, Recall: {}, F1 Score: {}".format(accuracy_2, precision_2, recall_2, f1_2))
Code bewerken en uitvoeren