Exploration des relations entre les mots à l'aide d'embeddings
Les plongées lexicales capturent la signification des mots en fonction de leur utilisation dans de grands ensembles de données textuelles. En rapprochant des mots similaires dans un espace vectoriel continu, ils permettent aux modèles de reconnaître le contexte et les relations sémantiques que les méthodes plus basiques ne peuvent pas saisir. Vous allez maintenant travailler avec des encastrements pour explorer directement ce type de relations entre les mots.
Le modèle d'intégration de mots de l'glove-wiki-gigaword-50
a été chargé avec succès et est prêt à être utilisé via la variable model_glove_wiki.
Cet exercice fait partie du cours
Traitement du langage naturel (NLP) en Python
Instructions
- Veuillez calculer le score de similarité entre
"king"
et"queen"
. - Obtenez les 10 mots les plus similaires à «
"computer"
».
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)