토픽 156 / 172·고급 학습 기법
소형 언어 모델 (SLM, Small Language Model)
소형 언어 모델 (SLM, Small Language Model)
파라미터 수가 10B 이하인 경량 언어 모델로, 특정 도메인이나 태스크에 특화되어 효율적이며 온디바이스, 엣지, 저비용 환경에서 실행 가능
목적: 비용 절감, 온디바이스 실행, 저지연, 특화 성능, 에너지 효율
특징: 작은 파라미터(1B~10B), 빠른 추론, 낮은 메모리, 도메인 특화, 파인튜닝 쉬움
주요 SLM
- •Phi-3(Microsoft): 3.8B, GPT-3.5 수준 성능, 모바일 실행 가능
- •Gemma(Google): 2B/7B, Gemini 기술, 오픈소스
- •Mistral 7B: 7B, 13B 모델 수준 성능
- •LLaMA 2 7B: Meta, 경량·고성능
- •BERT/RoBERTa: 110M~340M, 특화 태스크
vs LLM: SLM(특화/빠름/저비용) vs LLM(범용/느림/비쌈)
장점: 빠른 추론, 저비용, 온디바이스, 파인튜닝 쉬움, 에너지 효율
단점: 범용성 부족, 복잡 추론 한계, 지식 범위 제한
적용사례: 모바일 AI, 임베디드 시스템, 엣지 디바이스, 특화 챗봇
비교: SLM(특화/빠름) vs LLM(범용/느림) vs 태스크 모델(단일 기능)
연관: Edge AI, AI PC, 모델 경량화, Phi, Gemma, 온디바이스