[태그:] NLU

대규모 언어 모델 (LLM, Large Language Model)

1. 대규모 언어 모델 (LLM, Large Language Model) 개요 (1) 대규모 언어 모델의 등장 배경 (2) 대규모 언어 모델의 개념 및 특징 개념 특징 인간의 언어 이해와 생성 위해 대량의 언어 데이터 학습 및 파인튜닝하여 생성된 인공신경망 기반 생성형AI 언어 모델 – LLM은 대량의 언어 데이터로 훈련하여 맥락 파악 후 적절한 응답을 생성 – 한

자연어처리, NLP(Natural Language Processing)

I. 자연어처리 기술, NLP의 개념 기계와 인간 사이의 자연어처리 대화형 플랫폼 적용을 위해 자연 언어를 분석하고 생성하는 음성 변환, 언어 처리, 대화 관리 기술   II. NLP의 처리 구조 및 기술 요소 가. NLP의 처리 구조 나. NLP의 기술 요소 구분 기술 요소 세부 구현 기술 음성 변환 STT (Speech-to-Text) – 4KHz 음성신호를 문자(Text)로 변환

인공지능 음성인식 기술

인공지능 음성인식 기술 I. AI 기반 음성비서 서비스, 인공지능 음성인식 기술 – 사람의 음성을 인공지능 기반 패턴화, 기계학습을 통해 업무 보조, 생활 편의 서비스 제공 기술   II. 인공지능 음성인식 기술 분류 가. 음성처리 측면의 기술 구분 음성인식 기술 설명 자연어 인식 word2vec – 벡터 평면 배치, 워드임베딩 – CBOW, Skip-gram 방식 NLU – 전처리,

자연어처리 대화형 플랫폼

I. 자연어 인터랙션 플랫폼, 대화형 플랫폼 음성, 문자 등 자연어 인식기반 가상비서, 챗봇과 같은 서비스를 제공하는 자연어 인터랙션 플랫폼   II. 대화형 플랫폼 구성도 및 주요 기술 가. 대화형 플랫폼 구성도 나. 대화형 플랫폼 구현을 위한 주요 기술 구분 기술 요소 세부 기술 대화 입출력 STT, TTS – 가우시안 필터기반 음성 변환 OCR, CRNN –

seq2seq

I. 연속 단어의 응답 생성, seq2seq 문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델   II. seq2seq의 구성도 및 구성요소 가. seq2seq의 구성도 – Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출 나. seq2seq 구현을 위한 구성요소 구성요소 처리

Word2Vec

I. word embedding 성능 향상, Word2Vec 가. Word2Vec의 개념 단어를 벡터 평면에 배치하여 컴퓨터가 인식할 수 있도록 문맥적 의미를 보존하는 워드임베딩 기법 – 출력 스코어에 Softmax 적용하여 정답과 비교해 역전파 수행   II. Word2Vec 신경망 연산 기법 및 학습 모델 가. Word2Vec의 신경망 연산 기법 – 은닉 벡터(h) = 입력(x) x 입력 가중치 행렬(W) –

NLU (Natural Language Understanding)

I. 인간의 언어 이해, NLU 가. NLU의 개념 인간의 언어 이해 방법을 모방하여 자연어의 어휘/문장/문맥을 이해하는 자연어 이해 기술 나. NLU 방법론 특징 인간 모방 – 인간 언어 이해 방법 모방한 자연어 이해 파이프 라인 – 어휘 → 구문 → 문맥 차례 인식 하이브리드 – 사전 + 패턴 분석, 기계학습   II. NLU 구성도 및