토픽 197 / 201·비교표
MLOps와 모델 운영
DevOps vs MLOps vs DataOps
| 항목 | DevOps | MLOps | DataOps |
|---|---|---|---|
| 대상 | 소프트웨어 배포 | ML 모델 배포+운영 | 데이터 파이프라인 |
| 추가 요소 | CI/CD | +데이터+모델 관리 | +데이터 품질/거버넌스 |
| 핵심 과제 | 배포 자동화 | 모델 드리프트, 재학습 | 데이터 품질, 리니지 |
| 도구 | Jenkins, GitHub Actions | MLflow, Kubeflow | dbt, Airflow |
실시간 서빙 vs 배치 서빙 vs 엣지 서빙
| 항목 | 실시간 서빙 | 배치 서빙 | 엣지 서빙 |
|---|---|---|---|
| 지연시간 | 저지연 (ms) | 지연 허용 | 초저지연 |
| 처리량 | 소량 | 고처리량 | 소량 |
| 환경 | 클라우드/서버 | 클라우드/서버 | 디바이스 |
| 적용 | 추천API, 사기탐지 | 대량 예측, 리포트 | 자율주행, IoT |
데이터 드리프트 vs 개념 드리프트 vs 성능 드리프트
| 항목 | 데이터 드리프트 | 개념 드리프트 | 성능 드리프트 | |
|---|---|---|---|---|
| 변화 대상 | 입력 분포 P(X) | 입출력 관계 P(Y | X) | 출력 품질 |
| 원인 | 데이터원 변화 | 환경·행동 변화 | 복합 원인 | |
| 탐지 | KS Test, PSI | 성능 지표 모니터링 | 비즈니스 메트릭 | |
| 대응 | 전처리 갱신 | 모델 재학습 | 전체 파이프라인 검토 |
Model Card vs Datasheet vs AI SBOM
| 항목 | Model Card | Datasheet for Datasets | AI SBOM |
|---|---|---|---|
| 대상 | AI 모델 | 학습 데이터셋 | AI 시스템 전체 |
| 목적 | 모델 투명성 | 데이터 투명성 | 구성요소 추적 |
| 내용 | 성능/편향/용도 | 수집/라벨링/분포 | 모델/데이터/코드 목록 |
| 제안 | Google 2018 | Microsoft 2018 | NTIA/SPDX |
Model Collapse vs Catastrophic Forgetting vs Mode Collapse
| 항목 | Model Collapse | Catastrophic Forgetting | Mode Collapse |
|---|---|---|---|
| 원인 | 합성 데이터 반복 학습 | 새 태스크 학습 시 이전 지식 손실 | GAN 생성기가 제한된 출력만 생성 |
| 영향 | 전체 분포 축소 | 이전 태스크 성능 저하 | 생성 다양성 감소 |
| 대상 | LLM, 확산 모델 등 | 모든 신경망 | GAN |
| 대응 | 원본 데이터 혼합, 데이터 출처 추적 | EWC, 리플레이 버퍼 | 다양성 손실 정규화 |
전통 Observability vs AI Observability
| 항목 | 전통 Observability | AI Observability |
|---|---|---|
| 대상 | 서버/앱/네트워크 | LLM/AI 모델 |
| 핵심 신호 | 메트릭/로그/트레이스 | 추론/평가/드리프트 |
| 품질 지표 | 응답시간, 오류율 | 할루시네이션율, 정확성 |
| 드리프트 | 인프라 성능 변화 | 모델 성능/편향 변화 |
| 대표 도구 | Datadog, Grafana | LangSmith, Arize, Phoenix |