Language Model(언어 모델)
[정의]
단어 시퀀스에 대한 확률 분포로, 시퀀스1 내 단어 토큰들에 대한 확률을 할당하는 모델이다.
m개의 단어가 주어질 때, m개의 단어 시퀀스가 나타날 확률은 다음과 같다.
예를 들어, 시퀀스 내 단어들이 "Today is monday" 라는 문장을 이루게 되는 확률을 구해보자. "Today" 가 선택될 확률은 P("Today")다. 그 다음 "is" 가 올 확률은 P("Today")·P("is") 라고 생각할 수 있다. 하지만 글은 순서가 동일해야 똑같은 의미를 지니는 시퀀스 데이터다. 따라서 다음과 같이 표현되어야 한다.
이러한 확률 분포는 학습 데이터의 성격에 따라 매번 다르게 계산될 것이다. 왜냐하면 학습 데이터의 성격이 다르면 사용되는 단어의 분포가 다르기 때문이다.
[사용]
언어 모델은 확률 분포에 따라 시퀀스를 추출하기에 용이하다. 따라서 다음과 같은 용도로 많이 사용된다.
- Machine translation(기계 번역) : Source 언어의 text에서 target 언어의 text로 변환
- Speech recognition : 오디오 신호에서 text로 변환
- Summarization : 긴 text에서 짧은 text로 변환
- Dialogue system : 사용자의 입력(그리고 knowledge base)에서 text response로 변환
[한계]
실제로 문장의 확률을 계산하기 위해서는 엄청난 양의 Corpus(말뭉치)가 필요할 것이다. 가령 "He loves" 라는 문장 뒤 어떤 단어가 올지 LM의 기본 개념을 통해 확률을 구한다고 하면 확률 P는 다음과 같다.
LM(Language Model)은 corpus 중 "He loves her" 와 같은 표현이 많을수록 확률을 높게 계산할 것이다. 그렇다면 "He loves him" 은 어떨까? 분명 실세계에서는 충분히 나올 수 있는 문장이다. 그러나 corpus에 이러한 문장이 없다면 확률이 0가 되어[ P(W) = 0 ] "him"을 절대로 예측할 수 없을 것이다.
이러한 문제점을 해결하기 위해 일반화가 반드시 필요하다. 일반화가 될 수 있도록 하는 방법 중 N-gram을 먼저 살펴보자.
N-grams
N-grams은 corpus에 존재하지 않는 문장을 count하기 위해 마르코프 가정을 사용한다.
가령 "A good boy" 다음 "is" 가 나올 확률을 그냥 "boy" 다음 "is" 가 나올 확률로 가정하는 것이다. 즉, 단어 등장 확률을 구하기 위해 기준 단어의 앞 단어를 전부 포함하는 것이 아닌 앞 단어 중 임의의 N개만 포함하여 세는 것이 N-grams이다. 하지만, P(W) = 0인 상황을 완전히 피할 수는 없다. 따라서 이를 해결하기 위한 기법으로 smoothing이 있다. 이 기법은 추후에 나올 Naive Bayes(나이브 베이즈) 알고리즘에서도 주로 쓰인다. 수식은 다음과 같다.
여기서 alpha가 1이면 Laplace smoothing이다.
Representation
NLP 관련 논문을 읽으면 빠짐 없이 나오는 용어로, 실제 텍스트를 LM이 연산할 수 있도록 만든 형태라고 보면 된다. Representation은 크게 카운트 기반으로 나타내는 것과 그렇지 않은 것으로 나눌 수 있다.
One-hot Encoding
데이터를 처리하기 위해서 벡터 형태로 변환해야 하고 각 데이터가 독립적이어야 할 때 사용한다.
예로, 특정 사람의 이미지를 보고 성별을 구별해야 한다고 하자. 남자를 1, 여자를 0이라고 카테고리화하면 두 카테고리 사이에는 남성이라는 값이 여성보다 크다는 관계가 만들어진다. 이렇게 되면 학습이 잘 안 되기 때문에 독립적인 관계를 만들어야 한다.
[방법]
단순하게 말하면, 카테고리 수를 열의 개수로 하는 sparse matrix(희소 행렬)를 생성하면 된다. 물론 약간의 전처리 과정이 필요하다. 예로 "I am a boy" 라는 문장을 인코딩해보자.
Tokenization(토큰화)
[ "I", "am", "a", "boy" ]
각 단어에 고유 인덱스 부여 (사전 생성)
[ "I": 1, "am": 2, "a": 3, "boy": 4 ]
one-hot encoding
[ [ 1, 0, 0, 0 ], [ 0, 1, 0, 0 ], [ 0, 0, 1, 0 ], [ 0, 0, 0, 1 ] ]
[한계]
엄청나게 많은 종류의 단어를 one-hot 벡터로 만든다고 하면 엄청난 크기의 행렬이 필요할 것이다. 또한, sparse 행렬이므로 많은 메모리가 낭비된다. 그렇기 때문에 다차원 공간에 단어의 의미를 벡터화하는 여러 기법들이 존재한다.
Bag of Words (Bow)
단어들의 순서는 전혀 고려하지 않고 단어들의 출현 빈도(frequency)에만 집중하는 텍스트 데이터의 수치화 표현 방법이다. 주로 문서 분류에서 사용된다. 다음 세 개의 텍스트를 BoW 기반으로 표현해보자.
- doc1: "I learn NLP"
- doc2: "NLP is Natural Language Processing"
- doc3: "Learning NLP is not easy"
- Tokenization(토큰화)
- doc1: [ "I", "learn", "NLP" ]
- doc2: [ "NLP", "is", "Natural", "Language", "Processing" ]
- doc3: ["Learn", "##ing", "NLP", "is", "not", "easy" ]
각 단어의 빈도 수 계산
예시에서는 각 문서에 중복된 단어가 없기 때문에 모두 1인 벡터가 될 것이다. 하지만 각 문서 간 연관성을 계산하기 위해 모든 문서에 있는 단어들에 대한 행렬을 새로 만들 수 있다.
Word-Document Matrix(단어-문서 행렬)
문서에서 등장하는 각 단어들의 빈도를 표현한 행렬이다. 위의 예시로 다음과 같이 단어-문서 행렬을 만들 수 있다.
- I learn NLP is Natural Language Processing ##ing not easy doc1 1 1 1 0 0 0 0 0 0 0 doc2 0 0 1 1 1 1 1 0 0 0 doc3 0 1 1 1 0 0 0 1 1 1
Naive Bayes (나이브 베이즈)
BoW 모델은 text classification에서 매우 효과적이다. 이를 이용하여 텍스트를 분류하는데 전통적으로 사용되는 머신러닝 알고리즘이 바로 나이브 베이즈 알고리즘이다. 아래 베이즈 정리가 이 알고리즘의 핵심이다.
특정 텍스트를 카테고리 1과 2로 분류하는 문제는 입력 텍스트가 각 카테고리에 해당할 확률을 구하는 것과 같다. 베이즈 정리를 이용하면, 각 단어가 카테고리에 나타날 확률의 곱을 구하는 문제로 바꿀 수 있다. 좀 더 자세한 내용은 나이브 베이즈 분류기를 참고하자.
Distribution representation(분산 표현)
one-hot encoding의 단점을 해결하기 위해 등장한 개념이다. one-hot encoding은 메모리를 낭비한다는 단점 외에 자연어 처리 면에서의 단점이 하나 더 존재한다. 바로 각 데이터가 서로 독립이라는 점이다.
단어는 서로 동의어, 반의어, 유의어 등의 연관성이 존재하기 때문에 각 단어를 독립적으로 표현하는 것보다 연관성을 내포할 수 있는 벡터로 변환해주는 방법이 필요하다. 예를 들면, king과 queen은 서로 연관성이 높기 때문에 벡터 공간에서 가깝게 표시되어야 한다. 이것이 분산 표현의 목표다.
위 그림에서 보듯 서로 연관성이 큰 단어는 가깝게, 연관성이 작으면 멀게 표시한다. 이 때 변환된 단어 벡터는 실수 벡터이기 때문에 단어 벡터 간 거리나 유사도를 계산할 수 있다. 유사도를 계산하는 방법으로는 유클리드 거리나 코사인 유사도가 있다.
분산 표현은 각 단어의 연관성을 바탕으로 실수 벡터화시킨 것이므로 연관성을 계산하는 방법론이 필요하다. 이 방법론을 word embedding이라 하고 이를 구현하는 많은 방법들이 존재한다.
'NLP' 카테고리의 다른 글
다중 감성(multi-class sentiment) 분류 모델 개발일지 - 2 (0) | 2019.03.17 |
---|---|
다중 감성(multi-class sentiment) 분류 모델 개발일지 - 1 (1) | 2019.03.09 |
[keras, NLP] Seq2Seq로 번역 모델 구현하기 (0) | 2019.02.02 |
[NLP] 코드로 보는 RNN (0) | 2019.01.19 |
[NLP] 기본 개념 : Bag-Of-Words(BOW), Distributed hypothesis (0) | 2019.01.06 |
댓글