Explorando relações entre palavras com embeddings
Word embeddings capturam os significados das palavras com base no uso em grandes conjuntos de texto. Ao colocar palavras semelhantes mais próximas em um espaço vetorial contínuo, eles permitem que os modelos reconheçam contexto e relações semânticas que métodos mais simples não conseguem capturar. Agora você vai trabalhar com embeddings para explorar esse tipo de relação entre palavras na prática.
O modelo de word embeddings glove-wiki-gigaword-50 foi carregado com sucesso e está pronto para uso pela variável model_glove_wiki.
Este exercício faz parte do curso
Processamento de Linguagem Natural (NLP) em Python
Instruções do exercício
- Calcule a similaridade entre
"king"e"queen". - Obtenha as 10 palavras mais semelhantes a
"computer".
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)