[카테고리:] 알고리즘/AI

오류 역전파 (back propagation)

I. 인공신경망 학습기법, 오류 역전파 가. 오류 역전파의 개념 역방향 가중치 조정을 통해 오차를 최소화하여 신경망 학습을 위한 지도학습 알고리즘 나. 오류 역전파의 특징 감독 학습 – input과 output 훈련데이터셋을 통해 신경망을 학습시키는 방법 다층 신경망 – 여러 개의 은닉층(hidden layer)를 통해 활성함수를 적용하여 계산 역방향 계산 – 출력층으로부터 입력 방향으로 거슬러 가며 오차를 최소화하는

은닉 마르코프 모델 (HMM, Hidden Markov Model)

I. Hidden Parameter 추정, 은닉 마르코프 모델(HMM) 가. 은닉 마르코프 모델 (Hidden Markov Model)의 개념 관측 불가능한 은닉 상태를 관측이 가능한 결과를 통해 모델링(모형화)하는 이중 확률론적 모델 나. HMM 기반이 되는 마르코프 모델(MM)의 가정 – 특정 사건이 관측될 확률은 이전 시간 관측 결과에 의존하며, 상태를 직접 볼 수는 없음   II. 은닉 마르코프 모델(HMM)의 기본

인공지능 평가 모델

I. 인공지능 모델 성능 평가, 혼동행렬 가. 혼동행렬의 개념 잘못된 예측의 영향을 파악하기 위해 예측 값과 실제 값 일치 여부를 행렬로 분류하는 모델 평가 기법 나. 혼동행렬 기반 모델 성능 평가 항목 평가 항목을 수치로 정량화 하여 성능을 객관적 지표로 평가 및 기계 학습 효율성 극대화   II. 수신자 조작 특성, ROC Curve 가. ROC(Receiver

오버핏과 언더핏 (Overfitting & Underfitting)

I. 과한 학습과 부족 학습, 오버핏과 언더핏의 문제점 구분 문제점 현상 Overfit (과분산) – 과학습, 오류 분산 – High Variance, 과분산 – 비슷한 입력에 부정확 반응 결과 – 학습 대상만 정상반응 Underfit (과편향) – 데이터해석 능력저하 – High bias, 과편향 – 여러 가지 입력에 제대로 반응불가 – 학습 부족, 편향 반응 – 오버핏과 언더핏의 공통적인

몬테카를로 트리 탐색(MCTS)

I. 효율적 경로 탐색, 몬테카를로 트리 탐색 가. 몬테카를로 트리 탐색의 정의 전체 경로 탐색 불가능 시 효율적 경로 탐색을 통해 최적의 판단을 수행하는 알고리즘 나. 몬테카를로 트리 탐색의 특징 정책 (Policy) – 확장 단계에서 가장 높은 승률을 예측 – 트리 검색의 ‘폭’을 제한 가치 (Value) – 현재 승산을 나타내는 역할 – 트리 검색의 ‘깊이’

드롭아웃 (Dropout)

I. co-adaptation 해결 기법, 드롭아웃 가. 드롭아웃(Dropout)의 개념 딥러닝 시 오버피팅 문제를 해결하기 위해 노드 중 일부를 제거하는 인공지능 최적 학습기법 나. 드롭아웃의 목적 Overfitting 해결 – 신경망 비대 시 high variance 문제 해결 – Voting 효과로 정규화 유사 효과 가능 co-adaptation 회피 – 특정 뉴런의 가중치나 영향 감소 – 강건한 신경망 구성 가능  

유전 알고리즘 (Genetic Algorithm)

I. 기계학습과 진화 연산, 유전 알고리즘 가. 유전 알고리즘 개념 유전 알고리즘 절차 유전 알고리즘 개념 – 적자생존, 돌연변이 등 유전 원리에 따라 최적화형태로 진화 과정에서 해를 찾는 알고리즘 유전 알고리즘 특징 – 문제 해결 접근법 – 문제 상황과 관계 없음 – 적자생존 기반 알고리즘 나. 유전 알고리즘 구성요소 구성요소 핵심 기능 설명 자손 – 염색체 –

GAN (Generative Adversarial Networks)

I. 경쟁을 통한 원본 복제 기술, GAN 가. GAN (Generative Adversarial Networks)의 개념 생성자와 판별자 간 복제본 구별 경쟁을 통한 MinMax기반 성능 강화 비지도 학습 기술 나. GAN의 특징 준지도 학습 – 지도학습(구별자) + 비지도학습(생성자) MinMax Problem – 최소화와 최대화 경쟁 기반 성능 향상   II. GAN의 학습과정/수학적 표현 및 구성요소 가. GAN의 학습과정/수학적표현 학습과정

나이브 베이지안 (Naive Bayesian)

I. 나이브 베이지안 개념 문서나 데이터 요소 등장 확률 도출을 위해 베이즈 정리 기반 독립적 확률 벡터 분류 기법   II. 나이브 베이지안 분류기 수행 절차 가. 나이브 베이지안 분류 기법 수행 절차 절차 설명 수식 지도 학습 분류 – 분류기 실행 전 학습 벡터 결과 기반 분류 수행 C = {Comedy, Action} 입력 벡터

베이지안 네트워크 (Bayesian Network)

I. 체계적 확률 기법, 베이지안 네트워크 가. 베이지안 네트워크의 개념 체계적 확률 정보 기반 방향성 비순환 그래프와 그래프를 다루는 기법이 정리된 방법론 나. 베이지안 네트워크의 특징 주관적 정보 – 베이지안 망 구성 시 주관적 정보 사용 추론 단계 – 주로 추론 단계에서 베이즈 정리가 적용 인과적 추론 가능 – 증거 기반 뿐 아니라 인과적 추론