Explora relaciones entre palabras con embeddings
Los word embeddings capturan el significado de las palabras en función de su uso en grandes conjuntos de texto. Al situar palabras similares más cerca en un espacio vectorial continuo, permiten que los modelos reconozcan el contexto y las relaciones semánticas que los métodos más básicos no pueden captar. Ahora vas a trabajar con embeddings para explorar de primera mano este tipo de relaciones entre palabras.
El modelo de word embeddings glove-wiki-gigaword-50 se ha cargado correctamente y está listo para usarse a través de la variable model_glove_wiki.
Este ejercicio forma parte del curso
Natural Language Processing (NLP) en Python
Instrucciones del ejercicio
- Calcula la puntuación de similitud entre
"king"y"queen". - Obtén las 10 palabras más similares a
"computer".
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)