seq2seq

I. 연속 단어의 응답 생성, seq2seq

문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델
 

II. seq2seq의 구성도 및 구성요소

가. seq2seq의 구성도

– Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출

나. seq2seq 구현을 위한 구성요소

구성요소처리 대상설명
Encoder– Source Language– 입력 데이터 수신처리
– 주소 Stacked LSTM 활용
Decoder– Target   Language– 생성 데이터 출력처리
– 주소 Stacked LSTM 활용

– seq2seq는 RNN Cell기반이므로 문장이 길어지면 학습 효율 저하 경향 발생

콘텐츠 사용 시 출처 표기 부탁 드리고, 댓글은 큰 힘이 됩니다^^