정보관리기술/정보보안

적대적 공격(Adversarial Attack) / ①

아이티신비 2024. 2. 1. 09:00

문제12) 적대적 공격(Adversarial Attack)

 

답)

 

 

1. 머신 러닝 알고리즘 취약점, AI 적대적 공격의 개요


  • 머신 러닝 진행 단계별 취약점을 공격하여 머신 러닝 학습 결과에 오류를 발생시키거나 모델 추출을 통한 모델의 악의적 사용을 위한 머신 러닝 알고리즘 공격 기법

 

2. AI 적대적 공격의 유형 및 사례

가. AI 적대적 공격의 유형

구분
공격 기법
설명
직접적 공격
Poisoning
  • 악의적인 학습 데이터를 주입해 머신 러닝 모델을 공격하는 기법
Evasion
  • 학습 데이터에 잡음을 추가하여 판단 결과 오류 유도 공격 기법
간접적 공격
Inversion
  • 머신 러닝 모델에 쿼리 전송 후 리턴값 분석 통한 학습 데이터 유추
Extraction
  • 머신 러닝 모델에 쿼리 전송 후 리턴값 분석 통한 머신러닝 모델 유추
특정 결과
Target
  • 모델이 데이터 판별 시 특정 결과로 판별하도록 유도하는 기법
Non-target
  • 모델이 데이터 판별 시 무작위의 잘못된 결과로 판별하도록 유도
기존 정보
보유 여부
Black box
  • 모델에 대한 정보가 없는 경우 유효한 적대적 샘플을 생성하여 공격
White box
  • 모델의 형태, 구조, 파라미터 등에 대한 정보를 보유하고 있는 경우
  • AI 적대적 공격은 모델 추출, 모델 훼손, 판별 결과 오류 발생 유도 등을 주 목적으로 지속적으로 발전

 

나. AI 적대적 공격 사례

구분
유형
설명
자동차
오인식
  • 학습 데이터에 잡음을 추가하여 다른 물체로 인식
표지판 변형
  • 표지판 주변에 특정 표시를 추가하여 Stop을 Limit 로 인식
의료
보험 사기
  • 의료 영상 판독 시스템에 적대적 샘플을 입력하여 보험금 수령
임상 실험
  • 임상 실험 참가자 적정성 평가 시 검사 회피, 적합 결과 변경
역이용
모델 평가
  • 모델 성능 평가 시 적대적 샘플을 활용하여 모델 강인성 평가
일반화 검증
  • 적대적 샘플 통한 학습 모델의 일반화 성능 확인 가능
  • 빠른 속도로 증가하고 있는 적대적 공격에 대한 대응책 마련 필요

 

3. AI 적대적 공격 방어 기법

방어 기법
설명
Adversarial Training
  • 모델 학습 시 적대적 샘플을 학습 데이터 셋에 포함시켜 모델 학습 진행
Gradient Masking
  • 학습 모델의 Gradient 가 출력으로 노출되지 않도록 난독화 처리
Distillation
  • 학습 모델의 결과값들이 학습 방향에 대한 정보를 제공하지 못 하도록 보완
Defense GAN
  • 입력 데이터를 통해 GAN 을 실시하여 적대적 예제의 노이즈를 제고
 


 

공감과 댓글은 아이티신비에게 큰 힘이 됩니다.

블로그 글이 유용하다면 블로그를 구독해주세요.♥

 

 

'정보관리기술 > 정보보안' 카테고리의 다른 글

VPN(Virtual Private Network)  (1) 2024.02.01
IDS, IPS  (0) 2024.02.01
클라우드 보안  (26) 2024.01.31
전자서명법  (1) 2024.01.31
SOAR  (1) 2024.01.31