Evasion Attack

I. Security for AI, Evasion Attack

– 인공신경망 인식 시 원래 Class가 아닌 다른 Class로 인식하게 하는 입력 데이터 변조 공격

 

II. Evasion Attack의 생성 원리 및 공격 유형

가. Evasion Attack 생성 원리

① 변환기에 원본 샘플 x와 원본 Class y 입력
② 출력값으로 원본샘플 x에 노이즈 w 추가
③ 변형 샘플의 클래스 확률값 추출 & 조정

– Noise기반 임의 값 미세조정을 통해 Class점수 조정

나. Evasion Attack 공격 유형

구분공격 유형설명
공격
목표
표적 공격– 공격자 의도 Class로 인식
무표적 공격– 임의 Class로 인식
모델
정보량
화이트박스공격– 구조, 파라미터 사전 인지
블랙박스 공격– 대체모델 생성, 전송공격
변형샘플
Distance
L0– 모든 픽셀 거리 차의 합
L2– 유클리드 거리의 합
공격종류(Iterative) FGSM– DNN피드백 기울기최적화
Deepfool– 원본 샘플거리 최소화
Carlini Attack– 신뢰값반영 성공률 조정

– 대체모델 생성공격은 다중입력에 대한 출력값기반 대체모델 생성 후 공격, 전송공격은 생성 모델은 다른 모델에 유효

콘텐츠 사용 시 출처 표기 부탁 드리고, 궁금한 점이나 의견은 댓글 남겨주세요^^