뉴럴 네트워크 기반 언어 모델(NNLM)
대량의 문서 데이터셋을 vector 공간에 투영한다.
압축된 형태의 많은 의미를 갖는 dense vector로 표현한다.
효율적이고 빠른 학습이 가능하다.
학습 방법
CBOW: Continous Bag of Word
SG: Skip-Gram
SGNS: Skip-Gram with Negative Sampling
ex) 문제를 word2vec을 적용하여 임베딩
참고하면 좋은 자료
Introduction to Word Embedding and Word2Vec - Towards Data Science
Is word embedding a form of feature extraction? - StackExchange