I. 인공신경방 빠른 객체 탐색, YOLO 개념 필요성 빠른 속도로 객체 탐색 위해 그리드 Bounding box를 통해 최적 객체 탐색 및 분류하는 딥러닝 기반 Fast 객체 탐색 – RCNN의 느린 속도 개선 – 전체 이미지 기반 맥락이해 – Object의 일반화 특징학습 II. YOLO의 객체 탐색/분류 절차 및 구현 기술 가. YOLO 기반 객체 탐색/분류
I. 영상 내 사물 인식, R-CNN(Region-based CNN) 입력 영상 내 사물 인식을 위해 사물의 영역 탐지 및 사물 특징 추출, 분류 CNN 기반 신경망 알고리즘 II. R-CNN의 구성도 및 구성요소 가. R-CNN의 구성도 ① 이미지 입력 ② 2000개 정도 Region Proposal 추출(Selective Search) ③ Cropping(자르기), Warping(크기 동일화), Feature 추출 ④ 각 Region Proposal Feature
I. 2차원 이미지 분석, CNN 가. CNN의 개념 Convolution, Pooling, Fully Connected layer를 통해 특징 추출, 차원 축소하여 이미지를 분류, 인식하는 신경망 알고리즘 나. CNN의 특징 ReLU – Rectified Linear Unit 활성화 함수 – Gradient Vanishing 문제 해결 Dropout – 인공 신경망의 Overfitting 방지 위해 특정 뉴런 미동작 학습 수행 Bigdata – 과적합(Overfitting) 문제 해결
I. 확률 밀도 추정 알고리즘, KNN(K-Nearest Neighbor) 가. KNN의 개념 Sample에 주어진 x에서 가장 가까운 k개의 원소가 많이 속하는class로 x를 분류하는 비모수적 확률밀도 추정방법 나. KNN의 특징 NN 개선 – k개의 데이터에 대한 다수결 방식 인스턴스 개선 – 함수의 지역적 근사에 기반한 추정 게으른 학습 (Lazy Learning) – 데이터셋 저장만 하며, 일반화된 모델을 능동적으로 만들지
I. 연관성 규칙 탐사, A Priori (선험적) 알고리즘 가. A Priori 알고리즘의 개념 연관 규칙(Association Rule)의 대표적 형태로, 발생 빈도 기반 데이터 간의 연관 규칙 발견 알고리즘 나. 연관 규칙 발견 과정 대용량 데이터: 트랜잭션 대상 최소지지도 이상 만족 집합 발견 연관규칙 발견: 최소신뢰도 이상 만족 항목 연관 규칙 생성 II. A Priori 알고리즘의
I. Clustering을 통한 데이터 분류 기법, K-means 알고리즘 가. K-means 알고리즘의 개념 데이터를 임의의 중심점을 기준으로 최소의 거리가 되도록 K개의 군집화 하여 분류하는 비지도학습 나. K-means 알고리즘 특징 반복적 – 초기 잘못된 병합을 알고리즘 반복 수행 회복 대규모 적용 – 간단하고 대규모 적용에 계산 시간 짧음 연관성 – 연관성 높은 데이터는 근거리 위치 특성 이용
I. 최적 Policy 수립, MDP 개념 필요성 이산시간 확률제어 과정으로, 상태, 행동 및 전이확률 기반 최적의 의사결정 정책 을 탐색하는 강화학습 기법 – 인공지능 판단 정책 필요 – 최적 의사결정 탐색 – AI 자율적 학습 필요 – 최적화 문제 도구로 활용 II. MDP의 전이도/구성요소 및 알고리즘 가. MDP의 전이도/구성요소 전이도 구성요소 – S: 상태의
I. 인간의 학습 과정 모방, 기계 학습 대량의 데이터를 지도/비지도, 강화 학습 등을 통해 문제의 해답을 찾아내는 기법 지도학습(Supervised Learning) 비지도학습(Unsupervised Learning) 강화학습(Reinforcement Learning) 준지도학습(Semi-Supervised Learning) II. 지도 학습과 비지도 학습의 개념 지도 학습 비지도 학습 – 입출력이 쌍으로 구성된 학습 예제로부터 맵핑하는 함수 학습 형태 – 목표값 없이 입력값으로 공통 특성을 파악하는 귀납적
I. Security for AI, Evasion Attack – 인공신경망 인식 시 원래 Class가 아닌 다른 Class로 인식하게 하는 입력 데이터 변조 공격 II. Evasion Attack의 생성 원리 및 공격 유형 가. Evasion Attack 생성 원리 ① 변환기에 원본 샘플 x와 원본 Class y 입력 ② 출력값으로 원본샘플 x에 노이즈 w 추가 ③ 변형 샘플의 클래스
I. 탐험을 위한 액션 선택의 필요성 – 기계학습 에이전트는 강화학습을 위해 최대한 많은 경험과 최적의 정책 결정 위한 액션 선택 필요 II. 탐험을 위한 액션선택 방법의 개념과 선택 기준 방법 개념 액션기준 / 구성요소 그리디 접근법 – 현재 순간 최대 보상 기대하는 환경 보상 구조 기반 액션 선택 방법 – 현재시점 보상치 – 최대