1. 학습
  2. /
  3. 강의
  4. /
  5. Python으로 배우는 Natural Language Processing (NLP)

Connected

연습 문제

워드 임베딩 시각화와 비교

워드 임베딩은 차원이 높아 바로 해석하기 어렵습니다. 이 연습에서는 몇 개의 단어 벡터를 주성분 분석(PCA)으로 2차원에 투영해 시각화해 보겠습니다. 이를 통해 임베딩 공간에서 단어 간 의미적 군집이나 유사성을 확인할 수 있어요. 그런 다음 두 모델의 임베딩 표현을 비교합니다: 변수 model_glove_wiki로 제공되는 glove-wiki-gigaword-50과, model_glove_twitter로 제공되는 glove-twitter-25입니다.

지침 1/2

undefined XP
  • 1
    • model_glove_wiki를 사용해 각 단어의 임베딩을 추출하고, PCA로 차원을 축소하세요.
  • 2
    • model_glove_twitter를 사용해 각 단어의 임베딩을 추출하세요.