Aan de slagGa gratis aan de slag

Woordrelaties verkennen met embeddings

Word embeddings leggen de betekenis van woorden vast op basis van hun gebruik in grote tekstgegevenssets. Door vergelijkbare woorden dichter bij elkaar te plaatsen in een continue vectorruimte, kunnen modellen context en semantische relaties herkennen die eenvoudigere methoden niet oppikken. Nu ga je met embeddings aan de slag om dit soort woordrelaties zelf te verkennen.

Het glove-wiki-gigaword-50 word embedding-model is succesvol geladen en is klaar voor gebruik via de variabele model_glove_wiki.

Deze oefening maakt deel uit van de cursus

Natural Language Processing (NLP) in Python

Cursus bekijken

Oefeninstructies

  • Bereken de similariteitsscore tussen "king" en "queen".
  • Haal de top 10 meest vergelijkbare woorden op voor "computer".

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____

print(similarity_score)

# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____

print(similar_words)
Code bewerken en uitvoeren