[태그:] 병렬처리

머신러닝 파이프라인 (Machine Learning Pipeline)

I. 머신러닝 파이프라인(ML Pipeline)의 개요 가. 머신러닝 파이프라인의 개념 데이터 수집부터 전처리, 학습 모델 배포, 예측까지 전과정을 순차적으로 처리하도록 설계된 머신러닝 아키텍처 나. 머신러닝 파이프라인의 필요성 머신러닝 자동화 머신러닝 모델 전 과정 지속 수행 위한 파이프라인 기반 자동화 예측 정확성 향상 내부 구조 이해를 통한 머신러닝 성능(예측의 정확성) 향상   II. 머신러닝 파이프라인의 데이터 처리

파이프라인 분기예측과 예측실행

I. 병렬처리를 위한 분기예측의 개요 가. 분기예측의 개념 4단계 파이프라인의 예 분기예측의 개념 –파이프라인을 통한 명령 실행 중 조건 분기 명령의 실행이 종료될 때까지 다음 명령을 대기하지 않고 분기를 예측 실행하여 파이프라인 처리 성능 저하를 최소화하는 CPU 실행 기술 –다음 실행될 조건문이 어떤 곳으로 분기할 것인지를 확실히 알게 되기 전에 미리 추측하여 실행하여 파이프라인 효율성

양자컴퓨팅

I. 컴퓨팅 패러다임 혁신, 양자컴퓨팅 등장배경 [기존 컴퓨팅의 한계] – 폰노이만 컴퓨팅 성능 한계 – 추론, 판단 연산 어려움 – 트랜지스터 집적률 한계 – 암호화 기법 안전성 한계 [양자컴퓨팅 등장배경] – Qubit 기반 성능한계 극복 – 인공지능 연산 최적화 – 칩 소형화 한계 극복 – PQC Suit B 알고리즘 필요 폰노이만 시스템 한계 극복 및

TPU (Tensor Processing Unit)

I. 인공신경망 맞춤형 ASIC, TPU 가. TPU(Tensor Processing Unit)의 개념 인공신경망 데이터 고속처리를 위한 맞춤형 ASIC 기반 인공신경망 데이터 처리 전용 하드웨어 나. TPU 부각 배경 2006년 맞춤형 H/W(ASIC, FPGA, GPU) 실행 프로그램 제한 2013년 인공신경망 패러다임은 계산요구량 / 필요성능 증가 이러한 요구 충족을 위한 GPU 증설은 과다 비용 발생   II. TPU 구성도 및

뉴로모픽칩 (Neuromorphic chip)

I. 시냅스를 모방한 저전력 컴퓨팅, 뉴로모픽칩 가. 뉴로모픽칩의 개념 인간 뇌의 뉴런-시냅스 구조를 모방하여 연산, 저장, 통신 기능을 융합한 다수의 저전력 코어 기반 칩 나. 뉴로모픽칩의 목적 연산, 저장, 통신 기능 융합 – 폰-노이만 구조의 CPU-메모리 방식 탈피하여 연산/저장/통신 기능 융합 뉴런 기반 인공지능 연산 – 인간 뇌의 뉴런을 모방하여 출력 데이터를 입력으로 받아 딥러닝

병렬처리를 위한 멀티 프로세서 시스템

I. 병렬 처리를 위한, 멀티 프로세서 시스템의 개요 가. 멀티 프로세서 시스템의 개념 다수 프로세서를 상호 연결하여, 성능을 향상시킨 컴퓨터로 다수의 독립적인 프로세스를 처리하는 기능 나. 멀티 프로세서의 목적 목적 설명 수행 시간 최소화 – 컴퓨터가 수행하는 연산 작업 결과 도출까지 소요시간 최소화 문제 해결 범위 증가 – 동일 또는 독립 작업을 동시 수행하여 해결할

GPGPU (General Purpose GPU)

I. GPU 기반 범용 연산, GPGPU 가. GPGPU(General Purpose Graphic Processing Unit)의 개념 GPU를 그래픽 연산뿐 아니라 일반 컴퓨팅 영역에서 활용 위해 일반 계산에 GPU를 사용하는 기술 나. 등장배경 및 주요 특징 구분 내용 설명 등장 배경 기계 학습 성장 기계학습 기반 딥러닝 폭발적 성장 빅데이터 처리 단순 비정형 등 GPU로 처리 충분 주요 특징 초병렬 SIMD/SIMT 제어, 캐시 간소화 집적/병렬처리 플랫폼 지원 CUDA, OpenCL 등