Learning
토픽 147 / 172·고급 학습 기법

딥러닝 정규화 기법 (Regularization Techniques)

딥러닝 정규화 기법 (Regularization Techniques)

딥러닝 모델의 과적합을 방지하고 일반화 성능을 향상시키기 위해 학습 과정에 제약을 가하는 기법으로, Dropout·DropConnect·정규화층 등 다양한 방법을 포함

특징: 과적합 방지, 일반화 향상, 학습 안정화, 기법 조합 사용

주요 기법

  • Dropout: 노드를 확률적 비활성화(p=0.2~0.5), 앙상블 효과, 가장 널리 사용
  • DropConnect: 가중치를 확률적 비활성화, Dropout의 일반화, 더 다양한 서브모델
  • Batch Normalization: 미니배치 단위 정규화, 학습 안정화·가속, CNN에 표준
  • Layer Normalization: 층 단위 정규화, 배치 크기 무관, RNN/Transformer에 적합
  • Weight Decay (L2): 가중치 크기 패널티, 큰 가중치 억제, AdamW에 적용
  • Data Augmentation: 학습 데이터 변환으로 다양성 확보, 이미지·텍스트
  • Early Stopping: 검증 손실 증가 시 학습 중단, 간단하고 효과적

비교: Dropout(노드제거·범용) vs BatchNorm(분포정규화·CNN) vs LayerNorm(층정규화·Transformer) vs WeightDecay(가중치패널티)

연관: 과적합, 일반화, 딥러닝 학습, 최적화