X

Evasion Attack

I. Security for AI, Evasion Attack

– 인공신경망 인식 시 원래 Class가 아닌 다른 Class로 인식하게 하는 입력 데이터 변조 공격

 

II. Evasion Attack의 생성 원리 및 공격 유형

가. Evasion Attack 생성 원리

① 변환기에 원본 샘플 x와 원본 Class y 입력
② 출력값으로 원본샘플 x에 노이즈 w 추가
③ 변형 샘플의 클래스 확률값 추출 & 조정

– Noise기반 임의 값 미세조정을 통해 Class점수 조정

나. Evasion Attack 공격 유형

구분 공격 유형 설명
공격
목표
표적 공격 – 공격자 의도 Class로 인식
무표적 공격 – 임의 Class로 인식
모델
정보량
화이트박스공격 – 구조, 파라미터 사전 인지
블랙박스 공격 – 대체모델 생성, 전송공격
변형샘플
Distance
L0 – 모든 픽셀 거리 차의 합
L2 – 유클리드 거리의 합
공격종류 (Iterative) FGSM – DNN피드백 기울기최적화
Deepfool – 원본 샘플거리 최소화
Carlini Attack – 신뢰값반영 성공률 조정

– 대체모델 생성공격은 다중입력에 대한 출력값기반 대체모델 생성 후 공격, 전송공격은 생성 모델은 다른 모델에 유효

Categories: 알고리즘/AI
도리: