[태그:] 자연어 처리

파인튜닝 (Fine-Tuning)

1. 파인튜닝 (Fine-Tuning)의 개념 및 필요성 개념 필요성 인공지능 모델이 특정 작업이나 도메인에 적합하도록 이미 훈련된 인공지능 모델에 특정 데이터셋을 적용하는 미세 조정 기법 – 특정 작업/도메인에 적합한 모델 생성 – 적은 데이터셋으로 높은 학습 효과 – 신규 데이터에 대한 추론 성능 향상 파인 튜닝을 통해 학습 데이터가 적은 상황에서 특정 분야 인공지능 모델의 일반화

인공지능 (Artificial Intelligence)

1. 인간의 지능을 모방한 기술, 인공지능의 개요 (1) 인공지능 (Artificial Intelligence)의 개념 및 특징 개념 인간의 지능을 모방하여 문제를 해결하거나 아이디어를 도출하는 기술 특징 – 인간처럼 사고/행동 (Thinking/Acting Humanly) – 합리적으로 사고/행동 (Thinking/Acting Raionally) (2) 인공지능과 기계 학습, 딥러닝과의 관계 인공지능 (Artificial Intelligence) 인간의 지능을 모방하여 인간처럼 사고/행동하는 가장 큰 범위를 포괄하는 개념 기계 학습

RNN (Recurrent Neural Network)

I. 순환 신경망, RNN 가. RNN (Recurrent Neural Network)의 개념 음성인식, 자연어 등 현재 입력 데이터와 과거 데이터를 고려하여 순차 데이터를 처리하는 순환 신경망 모델 나. RNN의 특징 과거-미래 영향 구조 – 루프 구조를 통해 과거의 데이터가 미래에 영향을 줄 수 있는 구조 경사 하강법 – 함수의 기울기로 최소값 탐색 알고리즘 – 2, 3차원 알고리즘

인공지능 음성인식 기술

인공지능 음성인식 기술 I. AI 기반 음성비서 서비스, 인공지능 음성인식 기술 – 사람의 음성을 인공지능 기반 패턴화, 기계학습을 통해 업무 보조, 생활 편의 서비스 제공 기술   II. 인공지능 음성인식 기술 분류 가. 음성처리 측면의 기술 구분 음성인식 기술 설명 자연어 인식 word2vec – 벡터 평면 배치, 워드임베딩 – CBOW, Skip-gram 방식 NLU – 전처리,

seq2seq

I. 연속 단어의 응답 생성, seq2seq 문장에 대한 응답을 생성하기 위해 여러 개의 Neural Network Cell을 조합하여 구성한 자연어처리모델   II. seq2seq의 구성도 및 구성요소 가. seq2seq의 구성도 – Encoder 부분에서 입력 응답을 받아 하나의 hidden code 값으로 표현, Decoder에서는 hidden code와 start tag기반 적합한 결과 단어 추출 나. seq2seq 구현을 위한 구성요소 구성요소 처리

Word2Vec

I. word embedding 성능 향상, Word2Vec 가. Word2Vec의 개념 단어를 벡터 평면에 배치하여 컴퓨터가 인식할 수 있도록 문맥적 의미를 보존하는 워드임베딩 기법 – 출력 스코어에 Softmax 적용하여 정답과 비교해 역전파 수행   II. Word2Vec 신경망 연산 기법 및 학습 모델 가. Word2Vec의 신경망 연산 기법 – 은닉 벡터(h) = 입력(x) x 입력 가중치 행렬(W) –