Learning
토픽 70 / 172·생성형 AI와 LLM 활용

RAFT (Retrieval-Augmented Fine-Tuning)

RAFT (Retrieval-Augmented Fine-Tuning)

RAG와 Fine-tuning을 결합하여 모델이 검색된 문서에서 관련 정보를 추출하고 불필요한 문서를 무시하도록 학습시키는 도메인 특화 기법

핵심 아이디어: 학습 시 질문 + 정답 문서(Oracle) + 방해 문서(Distractor)를 함께 제공, 모델이 관련 문서를 식별하고 답변 근거를 Chain-of-Thought로 생성하도록 훈련

학습 데이터 구성: P% 비율로 Oracle 문서 포함, (1-P)%로 Distractor만 제공 → 모델이 두 상황 모두에 강건

장점: RAG 단독 대비 도메인 정확도 향상, 환각(Hallucination) 감소, 검색 노이즈에 강건, 소규모 데이터로 효과적

비교: RAG(검색+생성/학습 불필요/범용) vs Fine-tuning(모델 수정/검색 없음/도메인 특화) vs RAFT(검색+학습/최고 도메인 성능/데이터 준비 필요)

연관: RAG, Fine-tuning, CoT, 도메인 특화 LLM, 환각 감소