[카테고리:] 알고리즘/AI

CNN (Convolutional Neural Network)

I. 2차원 이미지 분석, CNN 가. CNN의 개념 Convolution, Pooling, Fully Connected layer를 통해 특징 추출, 차원 축소하여 이미지를 분류, 인식하는 신경망 알고리즘 나. CNN의 특징 ReLU – Rectified Linear Unit 활성화 함수 – Gradient Vanishing 문제 해결 Dropout – 인공 신경망의 Overfitting 방지 위해 특정 뉴런 미동작 학습 수행 Bigdata – 과적합(Overfitting) 문제 해결

KNN (K-Nearest Neighbor)

I. 확률 밀도 추정 알고리즘, KNN(K-Nearest Neighbor) 가. KNN의 개념 Sample에 주어진 x에서 가장 가까운 k개의 원소가 많이 속하는class로 x를 분류하는 비모수적 확률밀도 추정방법 나. KNN의 특징 NN 개선 – k개의 데이터에 대한 다수결 방식 인스턴스 개선 – 함수의 지역적 근사에 기반한 추정 게으른 학습 (Lazy Learning) – 데이터셋 저장만 하며, 일반화된 모델을 능동적으로 만들지

Apriori (연관 규칙) 알고리즘

I. 연관성 규칙 탐사, A Priori (선험적) 알고리즘 가. A Priori 알고리즘의 개념 연관 규칙(Association Rule)의 대표적 형태로, 발생 빈도 기반 데이터 간의 연관 규칙 발견 알고리즘 나. 연관 규칙 발견 과정 대용량 데이터: 트랜잭션 대상 최소지지도 이상 만족 집합 발견 연관규칙 발견: 최소신뢰도 이상 만족 항목 연관 규칙 생성   II. A Priori 알고리즘의

K-means 알고리즘

I. Clustering을 통한 데이터 분류 기법, K-means 알고리즘 가. K-means 알고리즘의 개념 데이터를 임의의 중심점을 기준으로 최소의 거리가 되도록 K개의 군집화 하여 분류하는 비지도학습 나. K-means 알고리즘 특징 반복적 – 초기 잘못된 병합을 알고리즘 반복 수행 회복 대규모 적용 – 간단하고 대규모 적용에 계산 시간 짧음 연관성 – 연관성 높은 데이터는 근거리 위치 특성 이용

마르코프 결정 프로세스, MDP (Markov Decision Process)

I. 최적 Policy 수립, MDP 개념 필요성 이산시간 확률제어 과정으로, 상태, 행동 및 전이확률 기반 최적의 의사결정 정책 을 탐색하는 강화학습 기법 – 인공지능 판단 정책 필요 – 최적 의사결정  탐색 – AI 자율적 학습 필요 – 최적화 문제 도구로 활용   II. MDP의 전이도/구성요소 및 알고리즘 가. MDP의 전이도/구성요소 전이도 구성요소 – S: 상태의

기계 학습 (Machine Learning)

I. 인간의 학습 과정 모방, 기계 학습 대량의 데이터를 지도/비지도, 강화 학습 등을 통해 문제의 해답을 찾아내는 기법 지도학습(Supervised Learning) 비지도학습(Unsupervised Learning) 강화학습(Reinforcement Learning) 준지도학습(Semi-Supervised Learning)   II. 지도 학습과 비지도 학습의 개념 지도 학습 비지도 학습 – 입출력이 쌍으로 구성된 학습 예제로부터 맵핑하는 함수 학습 형태 – 목표값 없이 입력값으로 공통 특성을 파악하는 귀납적

Evasion Attack

I. Security for AI, Evasion Attack – 인공신경망 인식 시 원래 Class가 아닌 다른 Class로 인식하게 하는 입력 데이터 변조 공격   II. Evasion Attack의 생성 원리 및 공격 유형 가. Evasion Attack 생성 원리 ① 변환기에 원본 샘플 x와 원본 Class y 입력 ② 출력값으로 원본샘플 x에 노이즈 w 추가 ③ 변형 샘플의 클래스

탐험을 위한 액션 선택

I. 탐험을 위한 액션 선택의 필요성 – 기계학습 에이전트는 강화학습을 위해 최대한 많은 경험과 최적의 정책 결정 위한 액션 선택 필요   II. 탐험을 위한 액션선택 방법의 개념과 선택 기준 방법 개념 액션기준 / 구성요소 그리디 접근법 – 현재 순간 최대 보상 기대하는 환경 보상 구조 기반 액션 선택 방법 – 현재시점 보상치 – 최대

오류 역전파 (back propagation)

I. 인공신경망 학습기법, 오류 역전파 가. 오류 역전파의 개념 역방향 가중치 조정을 통해 오차를 최소화하여 신경망 학습을 위한 지도학습 알고리즘 나. 오류 역전파의 특징 감독 학습 – input과 output 훈련데이터셋을 통해 신경망을 학습시키는 방법 다층 신경망 – 여러 개의 은닉층(hidden layer)를 통해 활성함수를 적용하여 계산 역방향 계산 – 출력층으로부터 입력 방향으로 거슬러 가며 오차를 최소화하는

은닉 마르코프 모델 (HMM, Hidden Markov Model)

I. Hidden Parameter 추정, 은닉 마르코프 모델(HMM) 가. 은닉 마르코프 모델 (Hidden Markov Model)의 개념 관측 불가능한 은닉 상태를 관측이 가능한 결과를 통해 모델링(모형화)하는 이중 확률론적 모델 나. HMM 기반이 되는 마르코프 모델(MM)의 가정 – 특정 사건이 관측될 확률은 이전 시간 관측 결과에 의존하며, 상태를 직접 볼 수는 없음   II. 은닉 마르코프 모델(HMM)의 기본