인공지능 관계도
이 관계도는 전체 토픽의 구조와 연결 관계를 보여줍니다. 학습 전에 전체 흐름을 파악하세요.
mindmap
root((인공지능<br/>146개 토픽))
AI 기초
인공지능 개요
AI의 분류
모라벡의 역설
AGI
머신러닝
ML 기본
머신러닝
지도학습
비지도학습
강화학습
강화학습 심화
알고리즘
분류 알고리즘
회귀 알고리즘
SVM
결정트리 / 랜덤포레스트
앙상블 학습
클러스터링
클러스터링 K-means/DBSCAN
실루엣 계수
평가/최적화
ROC Curve / AUC
Hyperparameter Tuning
베이지안 최적화
Feature Engineering 기법
딥러닝 기초
딥러닝
신경망
활성화 함수
역전파
최적화 알고리즘
손실 함수
과적합 / 정규화
Batch Normalization
Dropout
딥러닝 정규화 기법
CNN
CNN
CNN 아키텍처
ResNet / 잔차 연결
RNN
RNN / LSTM / GRU
Transformer
Attention 메커니즘
Transformer
Positional Encoding
Transformer Positional Encoding
Flash Attention
BERT
GPT
LLM
LLM
Scaling Law
Emergent Ability
토크나이제이션
임베딩
Embedding 기법
LLM Context Window 관리
Hallucination 완화 기법
LLM Evaluation 메트릭
소형 언어 모델 SLM
오픈소스 AI 모델
생성형 AI
생성형 AI 기본
생성형 AI
확산 모델 개요
확산 모델
GAN
VAE
딥페이크
합성 데이터
프롬프트 엔지니어링
프롬프트 엔지니어링
Chain-of-Thought
RAG
RAG
벡터 데이터베이스
Vector Search 알고리즘
Vector DB 성능 최적화
GraphRAG
파인튜닝
Fine-tuning
LoRA/QLoRA
RLHF 상세
PPO
DPO
Constitutional AI
도메인 특화
도메인 특화 언어모델
AI 네이티브
AI 네이티브 개발
AI 에이전트
AI 에이전트
AI Agent Framework
멀티에이전트 시스템
ReAct
Agentic AI / AI Agent
멀티모달
멀티모달 AI
Multimodal LLM
CLIP
Vision Transformer ViT
컴퓨터 비전
컴퓨터 비전
객체 탐지
객체 탐지 모델 심화
이미지 분할
얼굴 인식 기법
NLP
자연어처리
개체명 인식
텍스트 분류 / 감성 분석
TF-IDF
음성 인식
음성 합성 TTS
TEXT2SQL / NL2SQL
추천 시스템
추천 시스템
추천시스템 심화
MLOps
MLOps
모델 배포 / 서빙
모델 서빙 전략
모델 모니터링 / 드리프트
데이터 드리프트 / 컨셉트 드리프트
모델 버전 관리
A/B 테스트 ML 모델
Feature Store
데이터 어노테이션/라벨링
AutoML
AutoML
Neural Architecture Search
AI 윤리/거버넌스
AI 윤리 / 책임 있는 AI
AI 편향
XAI
AI 가드레일
AI TRiSM
AI 거버넌스 프레임워크
엣지 AI
엣지 AI
Edge AI
AI PC
모델 경량화
양자화
Model Quantization 모델 양자화
지식 증류
모델 압축 기법 상세
Physical AI
고급 학습 기법
Transfer Learning
Few-Shot Learning / Zero-Shot Learning
Self-Supervised Learning
Contrastive Learning
Knowledge Distillation
연합학습
MoE
Graph Neural Network
Graph Neural Network
그래프 신경망 심화 GNN Advanced
Data Augmentation
Data Augmentation
기타
P-NP 문제
통계학 기초
기술통계
중심경향 측도
산포도 측도
확률과 확률분포
이산 확률분포
연속 확률분포
추정과 신뢰구간
가설검정
모수검정
비모수검정
회귀분석
단순/다중/로지스틱
분산분석 ANOVA
상관분석
베이지안 통계
표본추출 방법론
시계열 분석
교차분석과 카이제곱 검정주요 카테고리별 토픽 수
| 카테고리 | 토픽 수 | 주요 기술 |
|---|---|---|
| AI 기초 | 4개 | 인공지능, AI 분류, 모라벡의 역설, AGI |
| 머신러닝 | 16개 | 지도/비지도/강화학습, 강화학습 심화, 분류, 회귀, SVM, 앙상블, 클러스터링, 실루엣 계수, ROC/AUC, Hyperparameter Tuning, 베이지안 최적화, Feature Engineering |
| 딥러닝 기초 | 10개 | 신경망, 활성화함수, 역전파, 최적화, 정규화, Batch Norm, Dropout, 딥러닝 정규화 기법 |
| CNN | 3개 | CNN, CNN 아키텍처, ResNet/잔차 연결 |
| RNN | 1개 | RNN/LSTM/GRU |
| Transformer | 7개 | Attention, Transformer, Positional Encoding, Transformer Positional Encoding, Flash Attention, BERT, GPT |
| LLM | 11개 | LLM, Scaling Law, Emergent Ability, 토크나이제이션, 임베딩, Embedding 기법, Context Window, Hallucination 완화, LLM Evaluation, SLM, 오픈소스 AI |
| 생성형 AI - 기본 | 7개 | 생성형 AI, 확산 모델 개요, 확산 모델, GAN, VAE, 딥페이크, 합성 데이터 |
| 생성형 AI - 프롬프트 | 2개 | 프롬프트 엔지니어링, CoT |
| 생성형 AI - RAG | 5개 | RAG, 벡터 DB, Vector Search, Vector DB 최적화, GraphRAG |
| 생성형 AI - 파인튜닝 | 6개 | Fine-tuning, LoRA/QLoRA, RLHF, PPO, DPO, Constitutional AI |
| 생성형 AI - 도메인/응용 | 2개 | 도메인 특화 언어모델, AI 네이티브 개발 |
| 생성형 AI - 에이전트 | 5개 | AI 에이전트, Agent Framework, 멀티에이전트, ReAct, Agentic AI |
| 생성형 AI - 멀티모달 | 4개 | 멀티모달 AI, Multimodal LLM, CLIP, Vision Transformer |
| 컴퓨터 비전 | 5개 | CV, 객체 탐지, 객체 탐지 심화, 이미지 분할, 얼굴 인식 |
| NLP | 7개 | NLP, NER, 텍스트 분류, TF-IDF, 음성 인식, 음성 합성, TEXT2SQL |
| 추천 시스템 | 2개 | 추천 시스템, 추천시스템 심화 |
| MLOps | 9개 | MLOps, 모델 배포, 모델 서빙 전략, 모니터링, 데이터/컨셉트 드리프트, 모델 버전 관리, A/B 테스트, Feature Store, 어노테이션 |
| AutoML | 2개 | AutoML, NAS |
| AI 윤리/거버넌스 | 6개 | AI 윤리, AI 편향, XAI, AI 가드레일, AI TRiSM, AI 거버넌스 프레임워크 |
| 엣지 AI | 9개 | 엣지 AI, Edge AI, AI PC, 모델 경량화, 양자화, Model Quantization, 지식 증류, 모델 압축 기법, Physical AI |
| 고급 학습 기법 | 7개 | Transfer Learning, Few-Shot/Zero-Shot, Self-Supervised, Contrastive Learning, Knowledge Distillation, 연합학습, MoE |
| Graph Neural Network | 2개 | GNN, GNN 심화 |
| Data Augmentation | 1개 | Data Augmentation |
| 기타 | 1개 | P-NP 문제 |
| 통계학 기초 | 12개 | 기술통계, 확률분포, 신뢰구간, 가설검정, 회귀분석, ANOVA, 상관분석, 베이지안, 표본추출, 시계열, 비모수, 카이제곱 |
총 146개 토픽
핵심 연관 관계
AI 계층
인공지능 (AI) → AGI (범용 인공지능)
↓
머신러닝 (ML)
├─ 지도학습 (분류, 회귀)
├─ 비지도학습 (군집, 차원축소)
└─ 강화학습 (보상 기반) → 강화학습 심화 (PPO, DQN)
↓
딥러닝 (Deep Learning)
└─ 신경망 (다층 구조)머신러닝 유형
지도학습 (Supervised Learning) ├─ 분류 (Classification): 로지스틱 회귀, SVM, 결정트리 └─ 회귀 (Regression): 선형 회귀, 다항 회귀 비지도학습 (Unsupervised Learning) ├─ 군집 (Clustering): K-means, DBSCAN ├─ 실루엣 계수 (클러스터링 품질 평가) └─ 차원 축소: PCA, t-SNE 강화학습 (Reinforcement Learning) └─ Q-Learning, DQN, PPO
앙상블 학습
배깅 (Bagging) └─ 랜덤포레스트 부스팅 (Boosting) ├─ AdaBoost ├─ Gradient Boosting └─ XGBoost, LightGBM, CatBoost 스태킹 (Stacking)
신경망 구성요소
신경망 (Neural Network) ├─ 입력층 (Input Layer) ├─ 은닉층 (Hidden Layer) └─ 출력층 (Output Layer) 학습 과정 ├─ 순전파 (Forward Propagation) ├─ 손실 함수 (Loss Function) ├─ 역전파 (Backpropagation) └─ 최적화 (Optimizer: SGD, Adam) 정규화 ├─ Batch Normalization ├─ Dropout └─ 딥러닝 정규화 기법 (L1/L2, Early Stopping)
활성화 함수
Sigmoid (0~1) ReLU (Rectified Linear Unit) Leaky ReLU Tanh (-1~1) Softmax (다중 분류 출력층)
정규화 기법
과적합 (Overfitting) 방지 ├─ L1 정규화 (Lasso) ├─ L2 정규화 (Ridge) ├─ Dropout ├─ Batch Normalization ├─ Early Stopping └─ Data Augmentation
CNN 진화
LeNet (1998)
↓
AlexNet (2012) - ImageNet 우승
↓
VGGNet (2014) - 깊은 네트워크
↓
GoogLeNet (2014) - Inception 모듈
↓
ResNet (2015) - Skip Connection / 잔차 연결
↓
EfficientNet (2019) - 효율적 스케일링
↓
Vision Transformer (ViT) - CNN → TransformerRNN → LSTM → GRU
RNN (Recurrent Neural Network)
└─ 기울기 소실 문제
↓
LSTM (Long Short-Term Memory)
└─ Cell State, Gate 메커니즘
↓
GRU (Gated Recurrent Unit)
└─ LSTM 단순화Transformer 아키텍처
Attention 메커니즘
└─ Query, Key, Value
↓
Transformer (2017)
├─ Encoder (BERT)
└─ Decoder (GPT)
Self-Attention
└─ Multi-Head Attention
Positional Encoding
└─ 위치 정보 인코딩
Flash Attention
└─ IO-aware 최적화BERT vs GPT
BERT (Bidirectional Encoder) ├─ 양방향 학습 ├─ Masked Language Model └─ 문장 이해 (분류, NER) GPT (Generative Pre-trained Transformer) ├─ 단방향 학습 (왼→오) ├─ Causal Language Model └─ 텍스트 생성
LLM 진화
GPT-1 (2018, 117M)
↓
GPT-2 (2019, 1.5B)
↓
GPT-3 (2020, 175B)
↓
GPT-3.5 (ChatGPT)
↓
GPT-4 (2023, 멀티모달)
Scaling Law → Emergent Ability
LLM → SLM (소형 언어 모델)
LLM → 오픈소스 AI 모델생성형 AI 모델
텍스트 생성 └─ GPT, LLaMA, PaLM 이미지 생성 ├─ GAN (Generative Adversarial Network) ├─ VAE (Variational Autoencoder) └─ Diffusion Model (Stable Diffusion, DALL-E) 멀티모달 └─ GPT-4, Gemini, CLIP 딥페이크 (Deepfake) └─ GAN/Diffusion 기반 위변조 합성 데이터 (Synthetic Data) └─ GAN/Diffusion 기반 학습 데이터 생성
프롬프트 엔지니어링
프롬프트 엔지니어링 ├─ Zero-Shot (예시 없음) ├─ Few-Shot (몇 개 예시) └─ Chain-of-Thought (CoT, 단계적 사고)
RAG (Retrieval Augmented Generation)
사용자 질의
↓
벡터 데이터베이스 검색 (Embedding)
└─ Vector Search 알고리즘 (HNSW, IVF)
└─ Vector DB 성능 최적화
↓
관련 문서 검색
↓
LLM에 컨텍스트 제공
↓
답변 생성
GraphRAG
└─ 지식 그래프 기반 RAG
Hallucination 완화
└─ RAG, 팩트체킹, 검증파인튜닝 기법
Full Fine-tuning (모든 파라미터 학습)
↓
PEFT (Parameter-Efficient Fine-Tuning)
├─ LoRA (Low-Rank Adaptation)
└─ QLoRA (Quantized LoRA)
↓
RLHF (Reinforcement Learning from Human Feedback)
└─ PPO (Proximal Policy Optimization)
↓
DPO (Direct Preference Optimization)
└─ RLHF 대안 (보상 모델 불필요)
↓
Constitutional AI
└─ 원칙 기반 학습AI 에이전트
AI 에이전트 ├─ 도구 사용 (Tool Use) ├─ 메모리 (Memory) └─ 계획 (Planning) ReAct (Reasoning + Acting) └─ 추론과 행동 교차 수행 Agent Framework ├─ LangChain ├─ AutoGPT └─ BabyAGI Agentic AI / AI Agent └─ 자율적 목표 달성 멀티에이전트 시스템 ├─ 에이전트 간 협업/분업 ├─ 역할 기반 자율 조정 └─ CrewAI, AutoGen
컴퓨터 비전 태스크
분류 (Classification) └─ 이미지 카테고리 분류 객체 탐지 (Object Detection) ├─ YOLO, R-CNN, SSD └─ 객체 탐지 모델 심화 이미지 분할 (Segmentation) ├─ Semantic Segmentation (픽셀별 분류) └─ Instance Segmentation (객체별 분류) 얼굴 인식 (Face Recognition) └─ FaceNet, ArcFace Vision Transformer (ViT) └─ CNN → Transformer 적용
NLP 태스크
토크나이제이션 (Tokenization)
└─ BPE, WordPiece, SentencePiece
↓
임베딩 (Embedding)
└─ Word2Vec, GloVe, BERT Embedding
└─ Embedding 기법 (다양한 임베딩 방식)
↓
NLP 태스크
├─ 개체명 인식 (NER)
├─ 텍스트 분류
├─ 감성 분석
├─ TF-IDF (문서 가중치)
├─ 기계 번역
├─ 음성 인식 (ASR)
├─ 음성 합성 (TTS)
└─ TEXT2SQL / NL2SQLMLOps 파이프라인
데이터 수집 / 전처리
└─ 데이터 어노테이션/라벨링
↓
Feature Store (특징 저장소)
└─ Feature Engineering 기법
↓
모델 학습 / 검증
└─ Hyperparameter Tuning
↓
모델 배포 / 서빙
└─ 모델 서빙 전략
↓
모델 모니터링 / 드리프트 탐지
└─ 데이터 드리프트 / 컨셉트 드리프트
↓
모델 버전 관리
↓
A/B 테스트 (ML 모델)
↓
재학습 (Re-training)AI 윤리
AI 편향 (Bias) └─ 데이터 편향, 알고리즘 편향 XAI (Explainable AI) ├─ LIME, SHAP └─ Attention Visualization 책임 있는 AI ├─ 공정성 (Fairness) ├─ 투명성 (Transparency) └─ 프라이버시 (Privacy) AI 가드레일 └─ 유해 콘텐츠 필터링 AI TRiSM └─ 신뢰, 리스크, 보안 관리 AI 거버넌스 프레임워크 └─ 조직 차원 AI 관리 체계
고급 학습 기법
Transfer Learning (전이학습) └─ 사전학습 모델 재사용 Few-Shot Learning └─ 적은 예시로 학습 Zero-Shot Learning └─ 예시 없이 학습 Self-Supervised Learning └─ 레이블 없이 학습 (대조학습) Contrastive Learning └─ SimCLR, MoCo Knowledge Distillation └─ 큰 모델 → 작은 모델 연합학습 (Federated Learning) └─ 분산 학습, 데이터 프라이버시 MoE(Mixture of Experts) └─ 조건부 전문가 활성화
모델 경량화
모델 양자화(Model Quantization) └─ FP32 → INT8 (정밀도 감소) 양자화 (Quantization) └─ 기본 개념 및 기법 Pruning (가지치기) └─ 불필요한 가중치 제거 Knowledge Distillation └─ Teacher → Student 모델 압축 기법 상세 └─ 양자화, 프루닝, 증류 종합 Neural Architecture Search (NAS) └─ 최적 구조 자동 탐색 엣지 AI / Edge AI └─ 온디바이스 추론 AI PC └─ NPU 기반 로컬 AI Physical AI └─ 로봇/자율주행 물리적 AI
학습 순서 추천
1단계: 기초
1. 인공지능 개요, AI 분류, 모라벡의 역설
2. 머신러닝 (지도/비지도/강화학습)
3. 분류, 회귀 알고리즘, SVM
2단계: 머신러닝 심화
4. 클러스터링 (K-means/DBSCAN), 실루엣 계수
5. 결정트리, 랜덤포레스트, 앙상블 학습
6. ROC Curve/AUC, Feature Engineering, Hyperparameter Tuning
3단계: 딥러닝 기초
7. 신경망, 활성화 함수
8. 역전파, 최적화 알고리즘
9. 손실 함수, 과적합, Batch Normalization, Dropout
4단계: CNN/RNN
10. CNN, CNN 아키텍처, ResNet
11. RNN, LSTM, GRU
5단계: Transformer
12. Attention 메커니즘, Flash Attention
13. Transformer, Positional Encoding
14. BERT, GPT
6단계: LLM
15. LLM, Scaling Law, Emergent Ability
16. 토크나이제이션, 임베딩, Embedding 기법
17. 프롬프트 엔지니어링, LLM Context Window
18. LLM Evaluation 메트릭, Hallucination 완화
7단계: 생성형 AI
19. 생성형 AI (GAN, VAE, Diffusion), 딥페이크
20. RAG, 벡터 DB, Vector Search, GraphRAG
21. Fine-tuning, LoRA, RLHF, PPO, DPO
22. AI 에이전트, ReAct, Agentic AI, 멀티에이전트
8단계: 응용
23. 컴퓨터 비전 (객체 탐지, 이미지 분할, 얼굴 인식)
24. NLP (NER, 텍스트 분류, TF-IDF, TEXT2SQL)
25. 음성 인식, 음성 합성
26. 추천 시스템, 멀티모달 AI, CLIP, ViT
9단계: MLOps
27. MLOps, 데이터 어노테이션
28. 모델 배포, 모델 서빙 전략
29. 모델 모니터링, 데이터/컨셉트 드리프트
30. Feature Store, 모델 버전 관리, A/B 테스트
31. 베이지안 최적화
10단계: 고급 주제
32. Transfer Learning
33. Few-Shot, Zero-Shot, Self-Supervised, Contrastive Learning
34. 연합학습, MoE, Knowledge Distillation
35. 모델 경량화, 양자화, 모델 압축
36. GNN, GNN 심화
37. SLM, 오픈소스 AI, AGI
11단계: 윤리/거버넌스
38. AI 윤리, AI 편향
39. XAI, AI TRiSM, AI 거버넌스 프레임워크
40. AI 가드레일, Constitutional AI
12단계: 엣지 AI
41. 엣지 AI, Edge AI, AI PC
42. Physical AI, 합성 데이터
13단계: 통계학 기초
43. 기술통계, 확률분포
44. 추정, 가설검정
45. 회귀분석, ANOVA, 상관분석
46. 베이지안 통계, 시계열 분석
시험 출제 포인트
고빈도 주제
- •지도학습 vs 비지도학습: 차이점, 사용 사례
- •분류 vs 회귀: 차이점, 알고리즘
- •SVM: 마진 최대화, 커널 트릭
- •활성화 함수: ReLU, Sigmoid, Softmax
- •역전파: 동작 원리
- •과적합: L1/L2 정규화, Dropout, Batch Normalization
- •CNN: Convolution, Pooling, 아키텍처, ResNet
- •RNN vs LSTM: 기울기 소실, Gate 메커니즘
- •Attention: Self-Attention, Multi-Head, Flash Attention
중요 개념
- •앙상블 학습: 배깅, 부스팅, 랜덤포레스트
- •클러스터링: K-means, DBSCAN, 실루엣 계수
- •최적화 알고리즘: SGD, Adam
- •손실 함수: MSE, Cross-Entropy
- •CNN 아키텍처: ResNet, VGGNet, Vision Transformer
- •Transformer: Encoder-Decoder, Positional Encoding
- •BERT vs GPT: 양방향 vs 단방향
- •토크나이제이션: BPE, WordPiece
- •임베딩: Word2Vec, BERT Embedding, Embedding 기법
- •ROC Curve / AUC: 모델 성능 평가 지표
고급 주제
- •LLM: Scaling Law, Emergent Ability, 파라미터 크기
- •SLM: 소형 언어 모델, 엣지 배포
- •프롬프트 엔지니어링: Zero-Shot, Few-Shot, CoT
- •RAG: 벡터 DB, 검색 증강 생성, GraphRAG
- •LoRA: 파라미터 효율적 파인튜닝
- •RLHF / PPO / DPO: 인간 피드백 기반 강화학습
- •AI 에이전트: Tool Use, Memory, Planning, ReAct
- •Agentic AI: 자율적 에이전트, 멀티에이전트
- •멀티모달 AI: GPT-4, CLIP, Vision Transformer
- •Mixture of Experts: 조건부 활성화
- •Hallucination 완화: 팩트체킹, RAG 기반 검증
- •LLM Context Window: 컨텍스트 관리 기법
MLOps
- •모델 배포: 서빙, 추론 최적화, 모델 서빙 전략
- •모델 드리프트: 데이터 드리프트, 컨셉트 드리프트
- •Feature Store: 특징 재사용, 일관성, Feature Engineering
- •A/B 테스트: 모델 성능 비교
- •모델 버전 관리: 실험 추적, 재현성
- •데이터 어노테이션: 라벨링 전략, 품질 관리
AI 윤리
- •AI 편향: 데이터 편향, 알고리즘 편향
- •XAI: LIME, SHAP, 설명 가능성
- •책임 있는 AI: 공정성, 투명성, 프라이버시
- •AI 가드레일: 유해 콘텐츠 필터링
- •AI TRiSM: 신뢰, 리스크, 보안 관리
- •AI 거버넌스 프레임워크: 조직 차원 AI 관리
최신 트렌드
- •생성형 AI: Diffusion Model, 딥페이크, 합성 데이터
- •Constitutional AI: 원칙 기반 학습
- •연합학습: 분산 학습, 프라이버시 보존
- •모델 경량화: Quantization, Pruning, Distillation, 모델 압축
- •엣지 AI / Edge AI: 온디바이스 추론
- •AI PC: NPU 기반 로컬 AI
- •Physical AI: 로봇, 자율주행
- •GraphRAG: 지식 그래프 기반 RAG
- •오픈소스 AI: LLaMA, Mistral
- •AGI: 범용 인공지능
- •TEXT2SQL: 자연어 → SQL 변환
- •음성 합성 (TTS): 텍스트 → 음성
마인드맵 활용 팁:
- •AI 계층은 AI→ML→DL 순서로 이해
- •머신러닝은 지도/비지도/강화학습으로 구분
- •CNN은 이미지, RNN은 시계열 데이터로 연결
- •Transformer는 Attention 메커니즘 중심 학습
- •LLM은 GPT 진화 과정 + Scaling Law/Emergent Ability로 암기
- •생성형 AI는 GAN/VAE/Diffusion 비교 + 딥페이크/합성 데이터 응용
- •RAG는 벡터 DB + Vector Search + GraphRAG 연계 이해
- •파인튜닝은 Full → LoRA → RLHF/PPO → DPO 순서로 학습
- •MLOps는 파이프라인 흐름 + 드리프트/버전관리로 학습
- •AI 에이전트는 ReAct → Agent Framework → Agentic AI → 멀티에이전트 진화