[태그:] AI

머신러닝 파이프라인 (Machine Learning Pipeline)

I. 머신러닝 파이프라인(ML Pipeline)의 개요 가. 머신러닝 파이프라인의 개념 데이터 수집부터 전처리, 학습 모델 배포, 예측까지 전과정을 순차적으로 처리하도록 설계된 머신러닝 아키텍처 나. 머신러닝 파이프라인의 필요성 머신러닝 자동화 머신러닝 모델 전 과정 지속 수행 위한 파이프라인 기반 자동화 예측 정확성 향상 내부 구조 이해를 통한 머신러닝 성능(예측의 정확성) 향상   II. 머신러닝 파이프라인의 데이터 처리

비지도 학습 (Unsupervised Learning)

I. 비지도 학습의 개요 가. 비지도 학습 (Unsupervised Learning, 자율 학습)의 개념 입력데이터에 대한 목표값 없이 데이터가 어떻게 구성되었는지를 알아내는 기계 학습(Machine Learning) 기법 나. 비지도 학습의 특징 비정제 데이터를 입력하여 훈련데이터 없이 데이터의 특징 요약과 군집 (Clustering) 수행 목표값을 정해주지 않아도 되고 사전 학습이 필요없으므로 속도가 빠름   II. 비지도 학습의 기법 및 알고리즘

지도 학습 (Supervised Learning)

I. 지도 학습의 개요 가. 지도 학습 (Supervised Learning)의 개념 훈련 데이터(Training Data)로부터 하나의 함수를 유추해내기 위한 기계 학습(Machine Learning) 기법 나. 지도 학습의 특징 명시적인 정답이 주어진 상황에서 기계를 학습 시키기 위해 데이터와 레이블을 사용 사람이 목표값에 개입하므로 정확도가 높으나 시간이 오래걸리고 필요 데이터량이 많음   II. 지도 학습의 기법 및 알고리즘 가. 지도

챗봇 (Chatbot)

I. 인공지능 기반 채팅, 챗봇 가. 챗봇의 개념 사람과 문자 대화를 통해 질문에 알맞은 답이나 각종 연관 정보 제공 인공지능 기반 커뮤니케이션 소프트웨어 나. 챗봇의 특징 특징 설명 인간과 커뮤니케이션 – 자연어 기반 문자/음성 대화 다양한 데이터 활용 – 센서, 인터넷, 상황 기반 데이터 인공지능 기술 활용 – 학습 데이터 패턴화, 분류기 사용   II.

양자컴퓨팅

I. 컴퓨팅 패러다임 혁신, 양자컴퓨팅 등장배경 [기존 컴퓨팅의 한계] – 폰노이만 컴퓨팅 성능 한계 – 추론, 판단 연산 어려움 – 트랜지스터 집적률 한계 – 암호화 기법 안전성 한계 [양자컴퓨팅 등장배경] – Qubit 기반 성능한계 극복 – 인공지능 연산 최적화 – 칩 소형화 한계 극복 – PQC Suit B 알고리즘 필요 폰노이만 시스템 한계 극복 및

TPU (Tensor Processing Unit)

I. 인공신경망 맞춤형 ASIC, TPU 가. TPU(Tensor Processing Unit)의 개념 인공신경망 데이터 고속처리를 위한 맞춤형 ASIC 기반 인공신경망 데이터 처리 전용 하드웨어 나. TPU 부각 배경 2006년 맞춤형 H/W(ASIC, FPGA, GPU) 실행 프로그램 제한 2013년 인공신경망 패러다임은 계산요구량 / 필요성능 증가 이러한 요구 충족을 위한 GPU 증설은 과다 비용 발생   II. TPU 구성도 및

DBSCAN

I. 밀도기반 군집화 기법, DBSCAN 가. DBSCAN 의 개념 핵심 벡터로부터 ε 반경 내 접근 가능한 모든 데이터 벡터들의 집합(군집)을 생성하는 기법 DBSCAN : Density-Based Spatial Clustering of Application with Noise 나. DBSCAN 주요 개념 ε (epsilon) – 주어진 개체 들의 반경 minPts – ε 반경 내 군집 위해 필요한 객체 수   II. 군집

인공신경망 (Artificial Neural Network)

I. 분류와 예측 모형, 인공신경망, ANN 가. 인공신경망의 개념 인간의 뉴런을 모방하여 가중치 조정을 통한 분류와 예측을 위해 다수 노드를 연결한 계층적 조직 나. 인공신경망의 특징 특징 구성요소 예를 통한 학습 – 예를 계속 제시하여 원하는 형태 학습 일반화 – 학습 후 미학습된 입력에도 올바른 출력 연상기억 – 일부 유실된 정보 → 유사한 출력 결함