Learning
토픽 104 / 172·AI 윤리와 안전

AI TRiSM (AI Trust, Risk and Security Management)

AI TRiSM (AI Trust, Risk and Security Management)

AI 시스템의 신뢰성(Trust), 위험(Risk), 보안(Security)을 체계적으로 관리하기 위한 프레임워크로, Gartner가 제시한 AI 거버넌스 방법론이며 모델 개발부터 운영까지 전 수명주기에 걸쳐 AI의 신뢰성과 안전성을 보장

목적: AI 모델 신뢰 확보, 위험 최소화, 보안 위협 대응, 규제 준수(EU AI Act, AI 기본법)

특징: 전 수명주기 관리, 다차원 접근(신뢰+위험+보안), 지속적 모니터링, 규제 대응 통합

구성요소

  • 설명가능성(Explainability): XAI, SHAP, LIME, 의사결정 근거 투명화
  • 모델옵스(ModelOps): 모델 배포·모니터링·재학습 자동화, CI/CD for ML
  • AI 보안(AI Security): 적대적 공격 방어, 데이터 포이즈닝 탐지, 모델 도용 방지
  • 프라이버시(Privacy): 차등 프라이버시, 연합학습, 개인정보 비식별화
  • 공정성(Fairness): 편향 탐지·완화, 공정성 메트릭(Demographic Parity, Equal Opportunity)
  • 안전성(Safety): 가드레일, 출력 필터링, 레드팀 테스트

동작과정: 위험 평가(모델 분류·영향도) → 거버넌스 정책 수립 → 개발 단계 적용(편향 테스트, 보안 검증) → 배포 후 모니터링(드리프트, 이상) → 지속 개선

적용사례: 금융 AI 심사(공정성 검증), 의료 AI(설명가능성), LLM 서비스(가드레일), 자율주행(안전성)

비교

연관: XAI, MLOps, AI 윤리, AI 거버넌스, AI 기본법, EU AI Act, 연합학습