[태그:] Word Embedding

워드 임베딩(Word Embedding)

I. 기계의 자연어 처리를 위한 워드 임베딩의 필요성 유사한 의미의 단어를 군집화하고 벡터 연산을 통해 단어 간의 관계를 파악하여 추론이 가능해짐에 따라 자연어 처리 모델링에 필수 기술로 사용   II. 단어의 벡터화, 워드 임베딩의 개념과 유형 가. 워드 임베딩의 개념 개념도 개념 단어 간 유사도 및 중요도 파악을 위해 단어를 저차원의 실수 벡터로 맵핑하여 의미적으로

자연어처리, NLP(Natural Language Processing)

I. 자연어처리 기술, NLP의 개념 기계와 인간 사이의 자연어처리 대화형 플랫폼 적용을 위해 자연 언어를 분석하고 생성하는 음성 변환, 언어 처리, 대화 관리 기술   II. NLP의 처리 구조 및 기술 요소 가. NLP의 처리 구조 나. NLP의 기술 요소 구분 기술 요소 세부 구현 기술 음성 변환 STT (Speech-to-Text) – 4KHz 음성신호를 문자(Text)로 변환

seq2seq

I. 연속 단어의 응답 생성, seq2seq 문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델   II. seq2seq의 구성도 및 구성요소 가. seq2seq의 구성도 – Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출 나. seq2seq 구현을 위한 구성요소 구성요소 처리