Woordrelaties verkennen met embeddings
Word embeddings leggen de betekenis van woorden vast op basis van hun gebruik in grote tekstgegevenssets. Door vergelijkbare woorden dichter bij elkaar te plaatsen in een continue vectorruimte, kunnen modellen context en semantische relaties herkennen die eenvoudigere methoden niet oppikken. Nu ga je met embeddings aan de slag om dit soort woordrelaties zelf te verkennen.
Het glove-wiki-gigaword-50 word embedding-model is succesvol geladen en is klaar voor gebruik via de variabele model_glove_wiki.
Deze oefening maakt deel uit van de cursus
Natural Language Processing (NLP) in Python
Oefeninstructies
- Bereken de similariteitsscore tussen
"king"en"queen". - Haal de top 10 meest vergelijkbare woorden op voor
"computer".
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)