[태그:] NLP

대규모 언어 모델 (LLM, Large Language Model)

1. 대규모 언어 모델 (LLM, Large Language Model) 개요 (1) 대규모 언어 모델의 등장 배경 (2) 대규모 언어 모델의 개념 및 특징 개념 특징 인간의 언어 이해와 생성을 위해 대량의 언어 데이터 학습, 파인튜닝하여 생성된 인공신경망 기반 생성형AI 언어 모델 – LLM은 대량의 언어 데이터로 훈련하여 맥락 파악 후 적절한 응답을 생성 – 한 단어가

자연어처리, NLP(Natural Language Processing)

I. 자연어처리 기술, NLP의 개념 기계와 인간 사이의 자연어처리 대화형 플랫폼 적용을 위해 자연 언어를 분석하고 생성하는 음성 변환, 언어 처리, 대화 관리 기술   II. NLP의 처리 구조 및 기술 요소 가. NLP의 처리 구조 나. NLP의 기술 요소 구분 기술 요소 세부 구현 기술 음성 변환 STT (Speech-to-Text) – 4KHz 음성신호를 문자(Text)로 변환

seq2seq

I. 연속 단어의 응답 생성, seq2seq 문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델   II. seq2seq의 구성도 및 구성요소 가. seq2seq의 구성도 – Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출 나. seq2seq 구현을 위한 구성요소 구성요소 처리

Word2Vec

I. word embedding 성능 향상, Word2Vec 가. Word2Vec의 개념 단어를 벡터 평면에 배치하여 컴퓨터가 인식할 수 있도록 문맥적 의미를 보존하는 워드임베딩 기법 – 출력 스코어에 Softmax 적용하여 정답과 비교해 역전파 수행   II. Word2Vec 신경망 연산 기법 및 학습 모델 가. Word2Vec의 신경망 연산 기법 – 은닉 벡터(h) = 입력(x) x 입력 가중치 행렬(W) –