1. Learn
  2. /
  3. Courses
  4. /
  5. Python으로 배우는 Natural Language Processing (NLP)

Connected

Exercise

임베딩으로 단어 관계 탐색하기

Word embedding은 대규모 텍스트 데이터에서의 사용 맥락을 바탕으로 단어의 의미를 포착합니다. 유사한 단어를 연속 벡터 공간에서 가깝게 배치함으로써, 더 단순한 방법으로는 잡기 어려운 문맥과 의미 관계를 모델이 인식할 수 있게 해요. 이제 임베딩을 직접 다루며 이러한 단어 관계를 탐색해 보겠습니다.

glove-wiki-gigaword-50 단어 임베딩 모델이 성공적으로 로드되었으며, model_glove_wiki 변수를 통해 사용할 수 있습니다.

Instructions

100 XP
  • "king"과 "queen" 사이의 유사도 점수를 계산하세요.
  • "computer"와 가장 유사한 상위 10개 단어를 가져오세요.