X

seq2seq

I. 연속 단어의 응답 생성, seq2seq

문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델
 

II. seq2seq의 구성도 및 구성요소

가. seq2seq의 구성도

– Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출

나. seq2seq 구현을 위한 구성요소

구성요소 처리 대상 설명
Encoder – Source Language – 입력 데이터 수신처리
– 주소 Stacked LSTM 활용
Decoder – Target   Language – 생성 데이터 출력처리
– 주소 Stacked LSTM 활용

– seq2seq는 RNN Cell기반이므로 문장이 길어지면 학습 효율 저하 경향 발생

Categories: 디지털서비스
도리: