Het BERT-model evalueren
Nu je de voorbeeldreviews hebt getokenized met de tokenizer van BERT, is het tijd om het BERT-model te evalueren met de voorbeelden van PyBooks. Daarnaast evalueer je de sentimentvoorspelling van het model op nieuwe data.
Het volgende is al voor je geïmporteerd: BertTokenizer, BertForSequenceClassification, torch.
De getrainde model-instantie is ook vooraf geladen. We testen deze nu op een nieuwe datasteekproef.
Deze oefening maakt deel uit van de cursus
Deep Learning voor tekst met PyTorch
Oefeninstructies
- Bereid de evaluatietekst voor het model voor door deze te tokenizen en PyTorch-tensors te retourneren.
- Zet de output-logits om naar waarschijnlijkheden tussen nul en één.
- Toon de sentimenten op basis van de waarschijnlijkheden.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
text = "I had an awesome day!"
# Tokenize the text and return PyTorch tensors
input_eval = tokenizer(____, return_tensors=____, truncation=True, padding=True, max_length=32)
outputs_eval = model(**input_eval)
# Convert the output logits to probabilities
predictions = torch.nn.functional.____(outputs_eval.____, dim=-1)
# Display the sentiments
predicted_label = ____ if torch.____(predictions) > 0 else ____
print(f"Text: {text}\nSentiment: {predicted_label}")