Learning
토픽 193 / 201·비교표

딥러닝

머신러닝 vs 딥러닝

항목머신러닝딥러닝
특징추출수동 설계 (Feature Engineering)자동 추출 (End-to-End)
데이터 규모소~중규모로 충분대규모 데이터 필수
모델 구조단순 (선형, 트리)다층 신경망
계산자원CPU로 충분GPU/TPU 필수
해석성상대적 용이블랙박스

CNN vs RNN vs Transformer

항목CNNRNNTransformer
대상이미지·공간 데이터시계열·순차 데이터범용 (텍스트/이미지)
핵심연산합성곱 (지역 패턴)순환연결 (시간 패턴)Self-Attention (전역)
병렬처리가능불가 (순차)완전 병렬
장거리 의존제한적기울기소실 문제O(1) 직접 연결
대표모델ResNet, YOLOLSTM, GRUBERT, GPT

RNN vs LSTM vs GRU

항목RNNLSTMGRU
구조단순 순환셀상태 + 3개 게이트2개 게이트
장기의존성기울기소실 문제해결 (셀상태)해결 (간소화)
파라미터적음많음중간
속도빠름느림LSTM보다 빠름
성능낮음높음LSTM과 유사

Batch GD vs SGD vs Adam

항목Batch GDSGDAdam
데이터 단위전체 데이터1개 샘플미니배치
안정성안정적노이즈 큼적응적·안정
속도느림빠름범용·빠름
메모리많음적음2배 (1차/2차 모멘트)
적용소규모 데이터지역최소 탈출현재 표준

ReLU vs Sigmoid vs Softmax

항목ReLUSigmoidSoftmax
수식max(0, x)1/(1+e^-x)e^xi/Σe^xj
출력범위0~∞0~10~1 (합=1)
기울기소실방지 (양수 영역)심각해당없음
계산비용매우 낮음높음 (지수)중간
용도은닉층 기본이진분류 출력다중분류 출력

L1 vs L2 vs Dropout

항목L1 (Lasso)L2 (Ridge)Dropout
방법가중치 절대값 패널티가중치 제곱 패널티뉴런 무작위 제거
효과희소 모델 (특징 선택)부드러운 가중치 분산앙상블 효과
적용특징 선택 필요 시과적합 방지 일반딥러닝 은닉층

BN vs LN vs GN vs IN

항목Batch NormLayer NormGroup NormInstance Norm
정규화 단위배치그룹인스턴스
배치 의존의존무관무관무관
대표 적용CNN 표준Transformer 표준소배치/객체탐지스타일 전이

VGGNet vs ResNet vs DenseNet

항목VGGNetResNetDenseNet
구조단순 직선형잔차 연결 (Skip)모든 층 연결
깊이16~19층50~152층100+층
기울기소실발생해결 (Skip Connection)해결 (Dense 연결)
파라미터많음효율적파라미터 효율
메모리중간중간많음

고편향 vs 고분산 (편향-분산 트레이드오프)

항목고편향 (과소적합)고분산 (과적합)
모델단순 모델복잡 모델
학습 오차높음낮음
테스트 오차높음높음 (학습과 괴리)
예측 패턴일관된 오류불안정한 예측
해결복잡도 증가, 특징 추가정규화, 데이터 증가