Mengeksplorasi relasi kata dengan embeddings
Word embedding menangkap makna kata berdasarkan penggunaannya dalam himpunan data teks berukuran besar. Dengan menempatkan kata-kata yang mirip berdekatan dalam ruang vektor kontinu, embedding memungkinkan model mengenali konteks dan hubungan semantik yang tidak dapat ditangkap oleh metode yang lebih sederhana. Sekarang Anda akan bekerja dengan embedding untuk mengeksplorasi langsung jenis-jenis hubungan kata ini.
Model word embedding glove-wiki-gigaword-50 telah berhasil dimuat dan siap digunakan melalui variabel model_glove_wiki.
Latihan ini adalah bagian dari kursus
Natural Language Processing (NLP) in Python
Petunjuk latihan
- Hitung skor kemiripan antara
"king"dan"queen". - Dapatkan 10 kata yang paling mirip dengan
"computer".
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Compute similarity between "king" and "queen"
similarity_score = model_glove_wiki.____
print(similarity_score)
# Get top 10 most similar words to "computer"
similar_words = model_glove_wiki.____
print(similar_words)