2018년 12월 20일
seq2seq
I. 연속 단어의 응답 생성, seq2seq
문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델
II. seq2seq의 구성도 및 구성요소
가. seq2seq의 구성도
– Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출
나. seq2seq 구현을 위한 구성요소
구성요소 | 처리 대상 | 설명 |
---|---|---|
Encoder | – Source Language | – 입력 데이터 수신처리 – 주소 Stacked LSTM 활용 |
Decoder | – Target Language | – 생성 데이터 출력처리 – 주소 Stacked LSTM 활용 |
– seq2seq는 RNN Cell기반이므로 문장이 길어지면 학습 효율 저하 경향 발생