Distributed Representations of Words and Phrases and their Compositionality (Word2Vec) (Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, Jeffrey Dean) - [2013 ANIPS]

2025. 8. 23. 14:30·AI Research Paper Review/Pre-Transformer

 

 

 

본 논문은 단어 임베딩 학습에서 Word2Vec(CBOW, Skip-gram)을 제안하며, 단순 구조로도 대규모 데이터에서 빠르고 고품질의 분산 표현을 학습할 수 있음을 보여주었다. Negative Sampling과 Subsampling 기법은 효율성과 성능을 동시에 확보하는 핵심 요소였으며, 단어 벡터의 선형 연산을 통한 의미적 유추 가능성은 NLP 발전에 큰 영감을 주었다. 비록 문맥에 따른 다의어 처리 한계는 있으나, Word2Vec은 현대 딥러닝 기반 언어모델의 출발점으로서 역사적 의의가 크다.

 

 

 

1. 연구 배경과 문제의식

자연어처리(NLP) 분야에서 단어를 어떻게 표현하느냐는 매우 중요한 문제다. 과거에는 단어를 원-핫 벡터(one-hot vector)로 단순하게 표현했지만, 이런 방식은 차원이 지나치게 크고 단어 간 유사성을 반영하지 못한다는 한계가 있었다. 예를 들어 "king"과 "queen"은 의미적으로 밀접하지만, 원-핫 벡터에서는 서로 완전히 직교하는 벡터가 되어 관계를 표현할 수 없다. 즉, 단어 간 유사도를 확인 불가하다는 것이다.

이를 해결하기 위해 연구자들은 단어를 저차원 연속 벡터 공간에 매핑하는 방법, 즉 단어 임베딩(word embedding) 기법을 고안해왔다. 단어 임베딩은 비슷한 의미를 가진 단어들을 벡터 공간에서 서로 가깝게 위치시키며, 문법적·의미적 관계까지 반영할 수 있다.

이 논문에서는 특히 Skip-gram 모델과 그 변형을 통해, 단어와 구(phrase)에 대한 고품질의 분산 표현을 매우 효율적으로 학습하는 방법을 제안한다. 저자들은 구글 내부의 방대한 말뭉치(수십 억 단어 규모)를 활용해 실험을 진행했으며, 단순한 구조임에도 불구하고 이전 신경망 기반 언어 모델보다 훨씬 빠르고 성능도 우수함을 보였다.

 

 

2. Skip-gram 모델

Skip-gram Architecture

Skip-gram은 Word2Vec의 두 가지 핵심 모델 중 하나(다른 하나는 CBOW, Continuous Bag-of-Words)이다. 그 학습 목표는 중심 단어(center word)로부터 주변 단어(context words)를 예측하는 것이다.

  • 입력: 현재 단어 w_t
  • 출력: 윈도우 크기 c 내에 등장하는 주변 단어들 w_t−c,…,w_t+c
  • 학습 목표: 주변 단어가 등장할 확률을 최대화하는 방향으로 임베딩을 학습

즉, 단어가 어떤 맥락 속에 등장하는지를 기반으로 벡터를 학습하게 된다. 이 과정에서 의미적으로 관련 있는 단어들이 비슷한 벡터 공간 위치로 학습된다.

논문에서는 기본 softmax를 그대로 쓰면 어휘 크기 W가 수백만에 이르므로 계산량이 막대해진다는 점을 지적한다. 이를 해결하기 위해 두 가지 방법을 제안한다:

  1. Hierarchical Softmax – 확률 계산을 이진 트리(허프만 트리)로 변환하여 복잡도를 log⁡W로 줄임.
  2. Negative Sampling – 소프트맥스 전체를 근사하지 않고, 올바른 단어와 무작위로 샘플링된 '가짜 단어'를 구분하는 이진 분류 문제로 단순화.

Negative Sampling은 단순하지만 매우 강력한 방식으로, 특히 대규모 데이터에서 학습 속도와 성능을 동시에 확보하는 데 큰 역할을 했다.

 

 

3. CBOW vs Skip-gram

CBOW (Continuous Bag-of-Words)

  • 입력(Input): 주변 단어(Context words)
  • 출력(Output): 중심 단어(Target word)

즉, 주변 단어를 보고 가운데 단어를 맞히는 방식이다.

예시 문장:

“The cat sits on the mat”

중심 단어: sits

윈도우 크기: 2라 가정하면

입력: [“The”, “cat”, “on”, “the”]

출력: [“sits”]

CBOW는 주변 단어들의 임베딩을 평균(또는 합산)하여 하나의 벡터로 만들고, 그것으로 중심 단어를 예측한다.

  • 특징:
    • 학습 속도가 빠르고, 데이터가 적을 때도 안정적.
    • 자주 등장하는 단어 표현에 강함.
    • 하지만 드문 단어(rare words) 표현은 잘 학습되지 않음.

 

Skip-gram

  • 입력(Input): 중심 단어(Target word)
  • 출력(Output): 주변 단어(Context words)

즉, 중심 단어를 보고 주변 단어들을 맞히는 방식이다.

예시 문장:

“The cat sits on the mat”

중심 단어: sits

윈도우 크기: 2라 가정하면

입력: [“sits”]

출력: [“The”, “cat”, “on”, “the”]

Skip-gram은 중심 단어 벡터를 사용해 여러 주변 단어를 독립적으로 예측한다.

  • 특징:
    • 학습 속도는 CBOW보다 느리지만, 성능은 더 강력한 경우가 많음.
    • 드문 단어(rare words) 표현까지 잘 학습함.
    • 대규모 데이터에서 특히 뛰어난 성능

 

4. Subsampling 기법

대규모 말뭉치에서는 "the", "of", "and" 같은 극빈출 단어가 지나치게 자주 등장한다. 이런 단어들은 맥락 정보 제공력이 낮고, 모델 학습에도 방해가 된다. 이를 해결하기 위해 저자들은 빈번한 단어를 확률적으로 제거(subsample) 하는 기법을 제안한다.

  • 자주 등장하는 단어일수록 높은 확률로 학습에서 제외
  • 드물게 등장하는 단어는 유지

이렇게 하면 학습 속도가 수 배 빨라지고, 드문 단어들의 표현 품질도 향상된다. 결과적으로 효율성과 성능을 동시에 개선할 수 있었다.

 

 

5. 구(phrase) 학습 확장

기존 단어 기반 임베딩은 "New"와 "York"을 따로 학습하지만, "New York"이라는 구는 단순 조합 이상의 의미를 가진다. 따라서 저자들은 자동으로 구를 추출해 별도의 토큰으로 처리하는 방법을 제안한다.

예:

  • "New York Times" → 하나의 토큰
  • "San Jose Mercury News" → 하나의 토큰

구 추출은 단순히 단어 쌍의 빈도와 독립성을 기반으로 수행한다. 이렇게 얻은 구를 Skip-gram 모델에 포함하면, 단어뿐 아니라 구에 대해서도 고품질 임베딩을 학습할 수 있다. 실험 결과, "Toronto" : "Toronto Maple Leafs"와 같은 구 단위 유추 문제에서도 높은 정확도를 보였다.

 

 

6. 벡터의 선형적 특성

이 논문이 가장 크게 주목받은 이유 중 하나는 단어 벡터 간의 연산이 의미적 관계를 반영한다는 사실을 보인 점이다.

  • vec("king") - vec("man") + vec("woman") ≈ vec("queen")
  • vec("Madrid") - vec("Spain") + vec("France") ≈ vec("Paris")

이러한 선형 관계는 단순한 벡터 산술 연산으로도 언어적 규칙을 포착할 수 있음을 보여주었다. 또한 단어뿐 아니라 구 벡터에서도 비슷한 특성이 관찰되었다.

추가적으로, 단순 벡터 합(예: vec("Russia") + vec("river"))이 "Volga River" 같은 의미 있는 조합에 가까워지는 현상도 보고했다. 이는 Skip-gram이 학습 과정에서 단어 맥락 분포를 반영하기 때문이라고 해석된다.

 

 

7. 실험 결과

저자들은 내부적으로 약 10억 단어 규모의 뉴스 코퍼스에서 모델을 학습하고, 단어 유추(analogy) 과제를 통해 성능을 평가했다.

  • Negative Sampling은 Hierarchical Softmax보다 빠르고 성능도 더 우수함.
  • Subsampling을 적용하면 학습이 최대 10배 빨라지고, 드문 단어 표현 품질도 개선됨.
  • Phrase 모델을 통해 구 단위 유추 문제에서도 높은 정확도 달성.

특히 대규모 데이터셋(약 330억 단어)을 사용해 학습한 경우, 이전에 발표된 임베딩 모델들(Collobert & Weston, Turian, Mnih & Hinton 등)을 큰 격차로 능가했다. 또한 Word2Vec은 단순한 구조 덕분에 기존 모델보다 훨씬 빠르게(수십 배 이상) 학습할 수 있었다.

 

 

8. 결론 및 기여

이 논문의 주요 기여는 다음과 같이 요약된다.

  1. 효율적 학습: Negative Sampling, Hierarchical Softmax, Subsampling을 통해 수십억 단어 규모 데이터도 빠르게 학습 가능.
  2. 구 표현 확장: 단어뿐 아니라 구(phrase)까지 임베딩할 수 있어 표현력이 강화됨.
  3. 선형 구조 발견: 단어 벡터의 연산이 문법적·의미적 관계를 포착한다는 사실을 실증적으로 보여줌.
  4. 실용적 가치: 공개된 Word2Vec 툴킷은 이후 수많은 연구와 산업 응용(검색, 번역, 추천 시스템 등)에 활용되며 NLP의 패러다임을 크게 바꾸었다.

저자들은 Word2Vec 코드와 학습된 임베딩을 오픈소스로 배포했으며, 이는 학계와 산업계 전반에 큰 파급 효과를 가져왔다.

 

 

종합 정리

이 논문은 단순한 신경망 기반 모델을 통해 단어와 구를 벡터 공간에서 효율적이고 의미 있게 표현할 수 있음을 보여준 획기적 연구라 할 수 있다. Negative Sampling, Subsampling 같은 기법은 실제 대규모 데이터에서 학습을 가능하게 했고, 벡터 간 연산으로 언어적 관계를 드러내는 발견은 이후 많은 연구의 토대가 되었다.

Word2Vec은 그 단순성과 강력함 때문에 NLP에서 기본 도구로 자리 잡았으며, 오늘날 BERT나 GPT 같은 대규모 언어 모델의 기반 아이디어에도 깊이 스며들어 있다.

'AI Research Paper Review > Pre-Transformer' 카테고리의 다른 글

Neural Machine Translation by Jointly Learning to Align and Translate (Bahdanau Attention) (Bahdanau et al.) - [2015 ICLR]  (2) 2025.08.26
Sequence to Sequence Learning with Neural Networks (Seq2Seq) (Ilya Sutskever, Oriol Vinyals, Quoc V. Le) - [2014 NIPS]  (0) 2025.08.23
RECURRENT NEURAL NETWORK REGULARIZATION (Zaremba, Sutskever, Vinyals) - [2014 arXiv]  (0) 2025.08.23
Finding Structure in Time (RNN) (Jeffrey L. Elman) - [1990 Cognitive Science]  (0) 2025.08.23
Long Short-Term Memory (LSTM) (S. Hochreiter et al.) - [1997 MIT Press]  (1) 2025.08.22
'AI Research Paper Review/Pre-Transformer' 카테고리의 다른 글
  • Neural Machine Translation by Jointly Learning to Align and Translate (Bahdanau Attention) (Bahdanau et al.) - [2015 ICLR]
  • Sequence to Sequence Learning with Neural Networks (Seq2Seq) (Ilya Sutskever, Oriol Vinyals, Quoc V. Le) - [2014 NIPS]
  • RECURRENT NEURAL NETWORK REGULARIZATION (Zaremba, Sutskever, Vinyals) - [2014 arXiv]
  • Finding Structure in Time (RNN) (Jeffrey L. Elman) - [1990 Cognitive Science]
CKtrace
CKtrace
개인 공부 내용 기록을 위한 블로그입니다.
  • CKtrace
    CKtrace's Devlog
    CKtrace
  • 전체
    오늘
    어제
    • My Traces (63) N
      • AI Research Paper Review (17) N
        • Basic & Milestones of DL (3)
        • Vision (3)
        • Pre-Transformer (7) N
        • Post-Transformer (4) N
      • AI (5)
        • DL & ML (5)
        • Data Analysis (0)
      • Statistics (19)
      • DB (16)
      • Python (6)
  • My Links

    • GitHub
  • Categories

    머신러닝
    Vision
    llm
    딥러닝
    기초 통계학
    Database
    인공지능
    NLP
  • hELLO· Designed By정상우.v4.10.4
CKtrace
Distributed Representations of Words and Phrases and their Compositionality (Word2Vec) (Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, Jeffrey Dean) - [2013 ANIPS]
상단으로

티스토리툴바