CommencerCommencer gratuitement

Explorer les relations entre les mots avec des embeddings

Les word embeddings capturent le sens des mots à partir de leur utilisation dans de grands jeux de textes. En plaçant des mots similaires plus près les uns des autres dans un espace vectoriel continu, ils permettent aux modèles de reconnaître le contexte et les relations sémantiques que des méthodes plus basiques ne peuvent pas saisir. Vous allez maintenant utiliser des embeddings pour explorer directement ce type de relations entre les mots.

Le modèle d’embeddings glove-wiki-gigaword-50 a été chargé avec succès et est prêt à être utilisé via la variable model_glove_wiki.

Cet exercice fait partie du cours

Natural Language Processing (NLP) in Python

Afficher le cours

Instructions

  • Calculez le score de similarité entre "king" et "queen".
  • Récupérez les 10 mots les plus similaires à "computer".

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____

print(similarity_score)

# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____

print(similar_words)
Modifier et exécuter le code