Explorer les relations entre les mots avec des embeddings
Les word embeddings capturent le sens des mots à partir de leur utilisation dans de grands jeux de textes. En plaçant des mots similaires plus près les uns des autres dans un espace vectoriel continu, ils permettent aux modèles de reconnaître le contexte et les relations sémantiques que des méthodes plus basiques ne peuvent pas saisir. Vous allez maintenant utiliser des embeddings pour explorer directement ce type de relations entre les mots.
Le modèle d’embeddings glove-wiki-gigaword-50 a été chargé avec succès et est prêt à être utilisé via la variable model_glove_wiki.
Cet exercice fait partie du cours
Natural Language Processing (NLP) in Python
Instructions
- Calculez le score de similarité entre
"king"et"queen". - Récupérez les 10 mots les plus similaires à
"computer".
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)