Esplorare le relazioni tra parole con gli embeddings
Gli word embedding catturano il significato delle parole in base al loro uso in grandi insiemi di testi. Collocando parole simili vicine tra loro in uno spazio vettoriale continuo, permettono ai modelli di riconoscere contesto e relazioni semantiche che i metodi più semplici non riescono a cogliere. Ora lavorerai con gli embeddings per esplorare direttamente questo tipo di relazioni tra parole.
Il modello di word embedding glove-wiki-gigaword-50 è stato caricato correttamente ed è pronto all'uso tramite la variabile model_glove_wiki.
Questo esercizio fa parte del corso
Natural Language Processing (NLP) in Python
Istruzioni dell'esercizio
- Calcola il punteggio di similarità tra
"king"e"queen". - Ottieni le 10 parole più simili a
"computer".
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)