IniziaInizia gratis

Esplorare le relazioni tra parole con gli embeddings

Gli word embedding catturano il significato delle parole in base al loro uso in grandi insiemi di testi. Collocando parole simili vicine tra loro in uno spazio vettoriale continuo, permettono ai modelli di riconoscere contesto e relazioni semantiche che i metodi più semplici non riescono a cogliere. Ora lavorerai con gli embeddings per esplorare direttamente questo tipo di relazioni tra parole.

Il modello di word embedding glove-wiki-gigaword-50 è stato caricato correttamente ed è pronto all'uso tramite la variabile model_glove_wiki.

Questo esercizio fa parte del corso

Natural Language Processing (NLP) in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Calcola il punteggio di similarità tra "king" e "queen".
  • Ottieni le 10 parole più simili a "computer".

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____

print(similarity_score)

# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____

print(similar_words)
Modifica ed esegui il codice