토픽 68 / 172·생성형 AI와 LLM 활용
RAG (Retrieval Augmented Generation)
RAG (Retrieval Augmented Generation)
외부 지식 베이스에서 관련 문서를 검색(Retrieval)하여 LLM의 생성(Generation)을 보강하는 기법으로, 환각 감소와 최신 정보 반영이 가능하며 파인튜닝 없이 도메인 지식 확장
구조: 질의 → 임베딩 → 벡터검색(유사문서) → 컨텍스트+질의 → LLM생성
구성요소: 문서DB, 임베딩모델, 벡터DB(FAISS·Pinecone·Weaviate), LLM
장점: 환각감소, 최신정보, 출처제공, 파인튜닝불필요, 비용효율
단점: 검색품질의존, 지연시간증가, 문맥길이제한
적용사례: 기업챗봇(내부문서), Q&A시스템, 고객지원, 법률·의료분석
비교: RAG(검색+생성) vs 파인튜닝(모델수정) vs 순수LLM(내재지식만)
연관: LLM, 벡터데이터베이스, 임베딩, 프롬프트엔지니어링