Learning
토픽 100 / 172·AI 윤리와 안전

XAI (설명 가능한 AI)

XAI (설명 가능한 AI)

블랙박스 AI 모델의 의사결정 과정과 예측 근거를 인간이 이해할 수 있도록 설명하는 기술로, 신뢰성·투명성·책임성을 확보하여 고위험 분야 적용을 가능하게 함

필요성: 신뢰구축, 규제준수(GDPR·EU AI Act), 디버깅, 편향탐지, 고위험분야(의료·금융·법률)

주요기법

  • SHAP (SHapley Additive exPlanations): 특징기여도, 게임이론, 모델독립적
  • LIME (Local Interpretable Model-agnostic Explanations): 지역근사, 블랙박스모델
  • Grad-CAM: CNN시각화, 히트맵, 어느영역집중
  • Attention Visualization: Transformer어텐션가중치시각화

해석가능모델: Linear Regression, Decision Tree, 규칙기반

적용사례: 의료진단(판단근거), 대출심사(거절이유), 자율주행(의사결정설명)

비교: 해석가능모델(투명·성능낮음) vs XAI(블랙박스설명)

연관: AI윤리, SHAP, LIME, Grad-CAM, 투명성