토픽 128 / 172·고급 학습 기법
Hallucination 완화 기법 (Hallucination Mitigation)
Hallucination 완화 기법 (Hallucination Mitigation)
LLM이 사실이 아닌 정보를 그럴듯하게 생성하는 현상(환각)을 감소시키기 위한 기법으로, RAG, Grounding, Self-Consistency, Fact-Checking 등의 전략을 활용하여 응답의 사실성을 향상
목적: 사실성 향상, 신뢰도 제고, 위험 감소, 실무 적용 가능성 향상
특징: 완전 제거 불가, 다층적 접근 필요, 모델·프롬프트·후처리 조합
Hallucination 유형
- •Intrinsic: 입력과 모순되는 출력 생성
- •Extrinsic: 입력에 없는 정보 추가, 검증 불가
- •Factual: 사실과 다른 정보 생성
완화 기법
- •RAG(Retrieval-Augmented Generation): 외부 지식 검색 후 주입, 근거 기반 응답
- •Grounding: 특정 문서/데이터에 기반, 출처 명시
- •Self-Consistency: 여러 번 생성 후 다수결, 일관성 확인
- •Chain-of-Thought: 단계별 추론, 논리적 검증 유도
- •Fact-Checking: 외부 API/DB로 사실 검증, 자동 팩트체크
- •Confidence Scoring: 불확실성 표시, 낮은 확신 시 경고
- •Fine-Tuning: 도메인 특화 학습, 사실성 강화
- •Constitutional AI: 원칙 기반 응답, 자체 검증
프롬프트 전략: "모르면 모른다고 답변", "출처 명시", "확실하지 않으면 표시"
장점: 사실성 향상, 신뢰도 증가, 실무 적용 가능, 위험 감소
단점: 완전 제거 불가, 추가 비용/지연, 복잡한 파이프라인, 도메인 의존
적용사례: 의료 AI, 법률 AI, 고객 서비스, 교육, 금융 자문
비교: RAG(검색 기반) vs Fine-Tuning(학습 기반) vs Self-Consistency(추론 기반)
연관: RAG, LLM, Grounding, Fact-Checking, 프롬프트 엔지니어링, 신뢰성