[카테고리:] 알고리즘/AI

지도 학습 (Supervised Learning)

I. 지도 학습의 개요 가. 지도 학습 (Supervised Learning)의 개념 훈련 데이터(Training Data)로부터 하나의 함수를 유추해내기 위한 기계 학습(Machine Learning) 기법 나. 지도 학습의 특징 명시적인 정답이 주어진 상황에서 기계를 학습 시키기 위해 데이터와 레이블을 사용 사람이 목표값에 개입하므로 정확도가 높으나 시간이 오래걸리고 필요 데이터량이 많음   II. 지도 학습의 기법 및 알고리즘 가. 지도

패턴인식

I. 사물 인식 기술, 패턴인식 문자, 물체 등을 인식하기 위해 표준 패턴과 입력 패턴 비교 기반 사물 식별 및 클래스 구분 기술   II. 패턴인식 시스템 처리 단계 가. 패턴인식 시스템 처리 단계 나. 패턴인식 시스템 처리 단계 별 기술 요소 처리 단계 기술 요소 설명 수집 /전처리 – 표본화, 정규화 – Noise 제거 –

전이 학습 (Transfer Learning)

I. 학습치 재사용 기법, 전이 학습 개념 필요성 데이터 세트가 유사한 분야에 학습치를 전이하여 Fine Tuning 기반 신경망 학습 재사용 기법 – 데이터 부족 해소 – 학습 시간 단축 – 학습치 재사용   II. 전이 학습의 메커니즘 및 알고리즘 유형 가. 전이 학습의 절차도/메커니즘 절차도 메커니즘 ① Feature Learning  Data Set 기반 학습 수행 ②

심층신뢰망 (DBN, Deep Belief Network)

I. Gradient descent vanishing 해결 위한 심층신뢰망 가. 심층신뢰망 (DBN, Deep Belief Network)의 개념 입력층과 은닉층으로 구성된 RBM을 블록처럼 여러 층으로 쌓인 형태로 연결된 신경망 (딥러닝의 일종) RBM: 제한된 볼츠만 머신(Restricted Boltzmann Machine) 나. 심층신뢰망의 개발 배경 피드포워드 신경망에서 신경망의 층 수가 늘어나면서 발생하는 경사감소 소멸(Gradient Descent Vanishing) 문제 해결 필요 다. 심층신뢰망의 특징 비지도

DBSCAN

I. 밀도기반 군집화 기법, DBSCAN 가. DBSCAN 의 개념 핵심 벡터로부터 ε 반경 내 접근 가능한 모든 데이터 벡터들의 집합(군집)을 생성하는 기법 DBSCAN : Density-Based Spatial Clustering of Application with Noise 나. DBSCAN 주요 개념 ε (epsilon) – 주어진 개체 들의 반경 minPts – ε 반경 내 군집 위해 필요한 객체 수   II. 군집

인공신경망 (Artificial Neural Network)

I. 분류와 예측 모형, 인공신경망, ANN 가. 인공신경망의 개념 인간의 뉴런을 모방하여 가중치 조정을 통한 분류와 예측을 위해 다수 노드를 연결한 계층적 조직 나. 인공신경망의 특징 특징 구성요소 예를 통한 학습 – 예를 계속 제시하여 원하는 형태 학습 일반화 – 학습 후 미학습된 입력에도 올바른 출력 연상기억 – 일부 유실된 정보 → 유사한 출력 결함

Q-러닝 (Q-Learning)

I. 강화 학습 기법, Q-러닝(Q-Learning) 특정 상태에서 행동에 대한 미래값(Q)을 계산하여, 최적 정책을 찾는 마르코프 의사결정 기반 강화학습 기법 마르코프 의사결정 : 다음 상태의 확률은 오직 현재 상태와 행동에만 영향을 받고, 이전 상태에서 영향 받지 않는 의사결정   II. Q-러닝 학습 절차 및 구성요소 가. Q-러닝의 학습 절차 학습 절차 설명 ① value table Q

CRNN (Convolution Recurrent Neural Network)

I. CNN과 RNN의 융합 기술, CRNN 특징 추출과 시계열 모델을 통합하여 이미지에서 시계열 데이터를 인식하는 고성능 학습 모델   II. CRNN의 수행 절차 및 구성요소 가. CRNN의 수행 절차 Convolution Net. 최상부에서 출력된 Feature Sequence의 프레임 예측 위해 Recurrent Net. 사용 나. CRNN의 구성요소 구분 구성요소 설명 계층 요소 CNN – Feature Map, Pooling, Sampling

LSTM (Long Short Term Memory)

I. RNN 장기 의존성 문제 개선, LSTM 가. LSTM의 개념 개념도 개념 순환신경망의 장기 의존성 문제 해결하기 위해 셀 스테이트 기반 신경망 모델 나. 순환신경망의 장기 의존성 문제 RNN은 매번 Step마다 위 과정을 반복, 역전파 시 더 많은 곱셈 연산에 따른 경사 감소로 뒤 노드까지 영향 불가 Step t에서의 hidden layer : ht(ht-1Whh)Whh   II.

RNN (Recurrent Neural Network)

I. 순환 신경망, RNN 가. RNN (Recurrent Neural Network)의 개념 음성인식, 자연어 등 현재 입력 데이터와 과거 데이터를 고려하여 순차 데이터를 처리하는 순환 신경망 모델 나. RNN의 특징 과거-미래 영향 구조 – 루프 구조를 통해 과거의 데이터가 미래에 영향을 줄 수 있는 구조 경사 하강법 – 함수의 기울기로 최소값 탐색 알고리즘 – 2, 3차원 알고리즘