Wortbeziehungen mit Embeddings erkunden
Wort-Embeddings erfassen die Bedeutungen von Wörtern anhand ihrer Verwendung in großen Textdatensätzen. Indem ähnliche Wörter in einem kontinuierlichen Vektorraum näher beieinander liegen, ermöglichen sie Modellen, Kontext und semantische Beziehungen zu erkennen, die einfachere Verfahren nicht abbilden können. Jetzt arbeitest du mit Embeddings, um solche Wortbeziehungen direkt zu erkunden.
Das Wort-Embedding-Modell glove-wiki-gigaword-50 wurde erfolgreich geladen und steht über die Variable model_glove_wiki zur Verfügung.
Diese Übung ist Teil des Kurses
Natural Language Processing (NLP) in Python
Anleitung zur Übung
- Berechne den Ähnlichkeitswert zwischen
"king"und"queen". - Ermittle die 10 ähnlichsten Wörter zu
"computer".
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)