[태그:] Softmax

워드 임베딩(Word Embedding)

I. 기계의 자연어 처리를 위한 워드 임베딩의 필요성 유사한 의미의 단어를 군집화하고 벡터 연산을 통해 단어 간의 관계를 파악하여 추론이 가능해짐에 따라 자연어 처리 모델링에 필수 기술로 사용   II. 단어의 벡터화, 워드 임베딩의 개념과 유형 가. 워드 임베딩의 개념 개념도 개념 단어 간 유사도 및 중요도 파악을 위해 단어를 저차원의 실수 벡터로 맵핑하여 의미적으로

Word2Vec

I. word embedding 성능 향상, Word2Vec 가. Word2Vec의 개념 단어를 벡터 평면에 배치하여 컴퓨터가 인식할 수 있도록 문맥적 의미를 보존하는 워드임베딩 기법 – 출력 스코어에 Softmax 적용하여 정답과 비교해 역전파 수행   II. Word2Vec 신경망 연산 기법 및 학습 모델 가. Word2Vec의 신경망 연산 기법 – 은닉 벡터(h) = 입력(x) x 입력 가중치 행렬(W) –