1. 학습
  2. /
  3. 강의
  4. /
  5. Python으로 배우는 Natural Language Processing (NLP)

Connected

연습 문제

임베딩으로 단어 관계 탐색하기

Word embedding은 대규모 텍스트 데이터에서의 사용 맥락을 바탕으로 단어의 의미를 포착합니다. 유사한 단어를 연속 벡터 공간에서 가깝게 배치함으로써, 더 단순한 방법으로는 잡기 어려운 문맥과 의미 관계를 모델이 인식할 수 있게 해요. 이제 임베딩을 직접 다루며 이러한 단어 관계를 탐색해 보겠습니다.

glove-wiki-gigaword-50 단어 임베딩 모델이 성공적으로 로드되었으며, model_glove_wiki 변수를 통해 사용할 수 있습니다.

지침

100 XP
  • "king"과 "queen" 사이의 유사도 점수를 계산하세요.
  • "computer"와 가장 유사한 상위 10개 단어를 가져오세요.