Learning
토픽 145 / 210·클라우드 및 플랫폼 보안

AI 보안 위협 (AI Security Threats)

AI 보안 위협 (AI Security Threats)

인공지능 및 머신러닝 시스템을 대상으로 하는 특수한 사이버 보안 위협으로, 모델 무결성, 데이터 프라이버시, 시스템 가용성을 침해하는 다양한 공격 기법

목적: AI 시스템 보호, 모델 무결성, 데이터 보호, 신뢰성 확보, 윤리적 AI

특징: 전통 보안과 다른 공격 벡터, 데이터·모델·추론 단계별 위협, 탐지 어려움

주요 위협 유형

  • 적대적 공격(Adversarial Attack): 입력 조작으로 오분류 유도, 노이즈 추가
  • 데이터 포이즈닝(Data Poisoning): 학습 데이터 오염으로 모델 왜곡
  • 모델 추출(Model Extraction): API 쿼리로 모델 복제, 지적재산 탈취
  • 멤버십 추론(Membership Inference): 특정 데이터의 학습 데이터 포함 여부 추론
  • 모델 반전(Model Inversion): 모델에서 학습 데이터 복원
  • 프롬프트 인젝션: LLM 프롬프트 조작, 가드레일 우회

방어 기법: 적대적 학습, 입력 검증, 모델 강건화, 차등 프라이버시, 출력 필터링

장점: AI 시스템 보호, 신뢰성 향상, 규제 준수, 윤리적 AI

단점: 완벽한 방어 불가, 성능-보안 트레이드오프, 새로운 공격 지속 출현

적용사례: 자율주행, 의료 AI, 금융 AI, LLM 서비스

비교: 적대적 공격(추론 시) vs 포이즈닝(학습 시) vs 모델 추출(지적재산)

연관: MLOps, AI 윤리, 적대적 공격, LLM 보안, 차등 프라이버시