토픽 70 / 172·생성형 AI와 LLM 활용
RAFT (Retrieval-Augmented Fine-Tuning)
RAFT (Retrieval-Augmented Fine-Tuning)
RAG와 Fine-tuning을 결합하여 모델이 검색된 문서에서 관련 정보를 추출하고 불필요한 문서를 무시하도록 학습시키는 도메인 특화 기법
핵심 아이디어: 학습 시 질문 + 정답 문서(Oracle) + 방해 문서(Distractor)를 함께 제공, 모델이 관련 문서를 식별하고 답변 근거를 Chain-of-Thought로 생성하도록 훈련
학습 데이터 구성: P% 비율로 Oracle 문서 포함, (1-P)%로 Distractor만 제공 → 모델이 두 상황 모두에 강건
장점: RAG 단독 대비 도메인 정확도 향상, 환각(Hallucination) 감소, 검색 노이즈에 강건, 소규모 데이터로 효과적
비교: RAG(검색+생성/학습 불필요/범용) vs Fine-tuning(모델 수정/검색 없음/도메인 특화) vs RAFT(검색+학습/최고 도메인 성능/데이터 준비 필요)
연관: RAG, Fine-tuning, CoT, 도메인 특화 LLM, 환각 감소