Learning
토픽 156 / 172·고급 학습 기법

소형 언어 모델 (SLM, Small Language Model)

소형 언어 모델 (SLM, Small Language Model)

파라미터 수가 10B 이하인 경량 언어 모델로, 특정 도메인이나 태스크에 특화되어 효율적이며 온디바이스, 엣지, 저비용 환경에서 실행 가능

목적: 비용 절감, 온디바이스 실행, 저지연, 특화 성능, 에너지 효율

특징: 작은 파라미터(1B~10B), 빠른 추론, 낮은 메모리, 도메인 특화, 파인튜닝 쉬움

주요 SLM

  • Phi-3(Microsoft): 3.8B, GPT-3.5 수준 성능, 모바일 실행 가능
  • Gemma(Google): 2B/7B, Gemini 기술, 오픈소스
  • Mistral 7B: 7B, 13B 모델 수준 성능
  • LLaMA 2 7B: Meta, 경량·고성능
  • BERT/RoBERTa: 110M~340M, 특화 태스크

vs LLM: SLM(특화/빠름/저비용) vs LLM(범용/느림/비쌈)

장점: 빠른 추론, 저비용, 온디바이스, 파인튜닝 쉬움, 에너지 효율

단점: 범용성 부족, 복잡 추론 한계, 지식 범위 제한

적용사례: 모바일 AI, 임베디드 시스템, 엣지 디바이스, 특화 챗봇

비교: SLM(특화/빠름) vs LLM(범용/느림) vs 태스크 모델(단일 기능)

연관: Edge AI, AI PC, 모델 경량화, Phi, Gemma, 온디바이스