Wortbeziehungen mit Einbettungen erkunden
Wort-Embeddings erfassen die Bedeutungen von Wörtern anhand ihrer Verwendung in großen Textdatensätzen. Indem ähnliche Wörter in einem fortlaufenden Vektorraum näher beieinander platziert werden, können Modelle Kontext und semantische Beziehungen erkennen, die mit einfacheren Methoden nicht erfasst werden können. Jetzt wirst du mit Einbettungen arbeiten, um diese Art von Wortbeziehungen aus erster Hand zu erkunden.
Das Wort-Embedding-Modell „ glove-wiki-gigaword-50
“ wurde erfolgreich geladen und kann über die Variable model_glove_wiki.
Diese Übung ist Teil des Kurses
Natürliche Sprachverarbeitung (NLP) in Python
Anleitung zur Übung
- Berechne den Ähnlichkeitswert zwischen
"king"
und"queen"
. - Hier sind die 10 Wörter, die am meisten wie „
"computer"
“ klingen.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)