ComeçarComece de graça

Explorando relações entre palavras com embeddings

Word embeddings capturam os significados das palavras com base no uso em grandes conjuntos de texto. Ao colocar palavras semelhantes mais próximas em um espaço vetorial contínuo, eles permitem que os modelos reconheçam contexto e relações semânticas que métodos mais simples não conseguem capturar. Agora você vai trabalhar com embeddings para explorar esse tipo de relação entre palavras na prática.

O modelo de word embeddings glove-wiki-gigaword-50 foi carregado com sucesso e está pronto para uso pela variável model_glove_wiki.

Este exercício faz parte do curso

Processamento de Linguagem Natural (NLP) em Python

Ver curso

Instruções do exercício

  • Calcule a similaridade entre "king" e "queen".
  • Obtenha as 10 palavras mais semelhantes a "computer".

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____

print(similarity_score)

# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____

print(similar_words)
Editar e executar o código