토픽 145 / 210·클라우드 및 플랫폼 보안
AI 보안 위협 (AI Security Threats)
AI 보안 위협 (AI Security Threats)
인공지능 및 머신러닝 시스템을 대상으로 하는 특수한 사이버 보안 위협으로, 모델 무결성, 데이터 프라이버시, 시스템 가용성을 침해하는 다양한 공격 기법
목적: AI 시스템 보호, 모델 무결성, 데이터 보호, 신뢰성 확보, 윤리적 AI
특징: 전통 보안과 다른 공격 벡터, 데이터·모델·추론 단계별 위협, 탐지 어려움
주요 위협 유형
- •적대적 공격(Adversarial Attack): 입력 조작으로 오분류 유도, 노이즈 추가
- •데이터 포이즈닝(Data Poisoning): 학습 데이터 오염으로 모델 왜곡
- •모델 추출(Model Extraction): API 쿼리로 모델 복제, 지적재산 탈취
- •멤버십 추론(Membership Inference): 특정 데이터의 학습 데이터 포함 여부 추론
- •모델 반전(Model Inversion): 모델에서 학습 데이터 복원
- •프롬프트 인젝션: LLM 프롬프트 조작, 가드레일 우회
방어 기법: 적대적 학습, 입력 검증, 모델 강건화, 차등 프라이버시, 출력 필터링
장점: AI 시스템 보호, 신뢰성 향상, 규제 준수, 윤리적 AI
단점: 완벽한 방어 불가, 성능-보안 트레이드오프, 새로운 공격 지속 출현
적용사례: 자율주행, 의료 AI, 금융 AI, LLM 서비스
비교: 적대적 공격(추론 시) vs 포이즈닝(학습 시) vs 모델 추출(지적재산)
연관: MLOps, AI 윤리, 적대적 공격, LLM 보안, 차등 프라이버시