I. Security for AI, Evasion Attack
– 인공신경망 인식 시 원래 Class가 아닌 다른 Class로 인식하게 하는 입력 데이터 변조 공격
II. Evasion Attack의 생성 원리 및 공격 유형
가. Evasion Attack 생성 원리
① 변환기에 원본 샘플 x와 원본 Class y 입력 ② 출력값으로 원본샘플 x에 노이즈 w 추가 ③ 변형 샘플의 클래스 확률값 추출 & 조정 |
– Noise기반 임의 값 미세조정을 통해 Class점수 조정
나. Evasion Attack 공격 유형
구분 | 공격 유형 | 설명 |
---|---|---|
공격 목표 | 표적 공격 | – 공격자 의도 Class로 인식 |
무표적 공격 | – 임의 Class로 인식 | |
모델 정보량 | 화이트박스공격 | – 구조, 파라미터 사전 인지 |
블랙박스 공격 | – 대체모델 생성, 전송공격 | |
변형샘플 Distance | L0 | – 모든 픽셀 거리 차의 합 |
L2 | – 유클리드 거리의 합 | |
공격종류 | (Iterative) FGSM | – DNN피드백 기울기최적화 |
Deepfool | – 원본 샘플거리 최소화 | |
Carlini Attack | – 신뢰값반영 성공률 조정 |
– 대체모델 생성공격은 다중입력에 대한 출력값기반 대체모델 생성 후 공격, 전송공격은 생성 모델은 다른 모델에 유효