토픽 100 / 172·AI 윤리와 안전
XAI (설명 가능한 AI)
XAI (설명 가능한 AI)
블랙박스 AI 모델의 의사결정 과정과 예측 근거를 인간이 이해할 수 있도록 설명하는 기술로, 신뢰성·투명성·책임성을 확보하여 고위험 분야 적용을 가능하게 함
필요성: 신뢰구축, 규제준수(GDPR·EU AI Act), 디버깅, 편향탐지, 고위험분야(의료·금융·법률)
주요기법
- •SHAP (SHapley Additive exPlanations): 특징기여도, 게임이론, 모델독립적
- •LIME (Local Interpretable Model-agnostic Explanations): 지역근사, 블랙박스모델
- •Grad-CAM: CNN시각화, 히트맵, 어느영역집중
- •Attention Visualization: Transformer어텐션가중치시각화
해석가능모델: Linear Regression, Decision Tree, 규칙기반
적용사례: 의료진단(판단근거), 대출심사(거절이유), 자율주행(의사결정설명)
비교: 해석가능모델(투명·성능낮음) vs XAI(블랙박스설명)
연관: AI윤리, SHAP, LIME, Grad-CAM, 투명성