Learning
토픽 128 / 172·고급 학습 기법

Hallucination 완화 기법 (Hallucination Mitigation)

Hallucination 완화 기법 (Hallucination Mitigation)

LLM이 사실이 아닌 정보를 그럴듯하게 생성하는 현상(환각)을 감소시키기 위한 기법으로, RAG, Grounding, Self-Consistency, Fact-Checking 등의 전략을 활용하여 응답의 사실성을 향상

목적: 사실성 향상, 신뢰도 제고, 위험 감소, 실무 적용 가능성 향상

특징: 완전 제거 불가, 다층적 접근 필요, 모델·프롬프트·후처리 조합

Hallucination 유형

  • Intrinsic: 입력과 모순되는 출력 생성
  • Extrinsic: 입력에 없는 정보 추가, 검증 불가
  • Factual: 사실과 다른 정보 생성

완화 기법

  • RAG(Retrieval-Augmented Generation): 외부 지식 검색 후 주입, 근거 기반 응답
  • Grounding: 특정 문서/데이터에 기반, 출처 명시
  • Self-Consistency: 여러 번 생성 후 다수결, 일관성 확인
  • Chain-of-Thought: 단계별 추론, 논리적 검증 유도
  • Fact-Checking: 외부 API/DB로 사실 검증, 자동 팩트체크
  • Confidence Scoring: 불확실성 표시, 낮은 확신 시 경고
  • Fine-Tuning: 도메인 특화 학습, 사실성 강화
  • Constitutional AI: 원칙 기반 응답, 자체 검증

프롬프트 전략: "모르면 모른다고 답변", "출처 명시", "확실하지 않으면 표시"

장점: 사실성 향상, 신뢰도 증가, 실무 적용 가능, 위험 감소

단점: 완전 제거 불가, 추가 비용/지연, 복잡한 파이프라인, 도메인 의존

적용사례: 의료 AI, 법률 AI, 고객 서비스, 교육, 금융 자문

비교: RAG(검색 기반) vs Fine-Tuning(학습 기반) vs Self-Consistency(추론 기반)

연관: RAG, LLM, Grounding, Fact-Checking, 프롬프트 엔지니어링, 신뢰성