I. 설명 가능한 인공지능, XAI
배경 | – 인공지능 시스템에 대한 사회 수용/신뢰 우려 – 전문가 시스템 도출 결과 이해 불가 한계를 극복 |
---|---|
개념 | – 인공지능 시스템의 동작 및 최종 결과를 해석하여 결과물이 생성되는 과정을 설명해주는 기술 |
– 미 국방성 산하 DARPA에서 ‘17년부터 XAI 관련 학습 모델의 개발/테스트 프로젝트 추진
II. XAI 구현을 위한 기술 요소
기술 요소 | 개념도 | 기술 설명/세부 기술 |
---|---|---|
기존 학습 모델 변형 | – CNN 학습과정 역연산 – 특징 영향 요소 시각화 | |
– Unpooling – Unnormalization | ||
신규 학습 모델 개발 | – 도출 표현 모델 개발 – 상위 개념, 하위 세분화 | |
– AND-OR Graph – 터미널 노드 특징 맵핑 | ||
학습 모델 간 비교 | [설명가능 분류모델] (비교) ← 도출 근거 [타깃 분류 모델] | – 설명가능모델 대조/추론 – 목표 분류 모델 설명 |
– 픽셀 기반 모델 비교 – 범용적 모델 진단 기술 |
– 빅데이터와 AI 활용 기술로 인한 사회적 차별, 불평등에 대한 신뢰성 제공 및 시스템 성능 향상 가능
III. XAI가 인공지능에 미치는 영향
구분 | 적용 사례 | 고려사항 |
---|---|---|
사회적 측면 | 사용자, 고객에 신뢰 확보 | – 다양한 분야(금융, 보험) 활용 – AI 사용자로부터 신뢰 확보 |
사회적 수용 공감대 형성 | – 편향된 결과 제거 – 타당한 설명 가능 | |
기술적 측면 | 고성능 학습모델 도출 | – 동일 목적과 결과를 갖는 학습 모델 도출, 성능 향상 |
신규 인공지능 전략 도출 | – 빅데이터 기반 패턴 추출 – 새로운 전략 도출 가능 | |
법/제도 측면 | 분쟁 원인파악 용이 | – 잘못된 판단 원인 파악 – 분쟁 발생 시 중재 가능 |
GDPR 등 규정준수 | – 개인정보보호 규정 등 – 규정준수 여부 판단 가능 | |
인공지능 산업측면 | 인공지능 산업 활성화 | – 부정적 인식 제거 – 산업 활성화 환경 조성 |
비즈니스 활용 수요 증대 | – 효과적 의사결정 – 비즈니스 활용수요 증가 |
IV. XAI 기술 적용 사례 및 고려사항
구분 | 적용 사례 | 고려사항 |
---|---|---|
법적 책임 준수 확인 | EU GDPR 22조 준수 | – 지능화 의사결정 설명 권리 부여 – XAI 기반 의사판단 과정 설명 |
성능 향상 | 최적 학습 모델 도출 | – High Variance 과적합 방지 – 시스템 성능 저하 요인 파악 |
– 데이터 마이닝, 패턴 인식 기반 법칙, 전략 도출 가능