ComenzarEmpieza gratis

Explora relaciones entre palabras con embeddings

Los word embeddings capturan el significado de las palabras en función de su uso en grandes conjuntos de texto. Al situar palabras similares más cerca en un espacio vectorial continuo, permiten que los modelos reconozcan el contexto y las relaciones semánticas que los métodos más básicos no pueden captar. Ahora vas a trabajar con embeddings para explorar de primera mano este tipo de relaciones entre palabras.

El modelo de word embeddings glove-wiki-gigaword-50 se ha cargado correctamente y está listo para usarse a través de la variable model_glove_wiki.

Este ejercicio forma parte del curso

Natural Language Processing (NLP) en Python

Ver curso

Instrucciones del ejercicio

  • Calcula la puntuación de similitud entre "king" y "queen".
  • Obtén las 10 palabras más similares a "computer".

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____

print(similarity_score)

# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____

print(similar_words)
Editar y ejecutar código