Learning
토픽 44 / 172·딥러닝

RNN / LSTM / GRU (순환 신경망)

RNN / LSTM / GRU (순환 신경망)

순환 구조를 통해 시계열 데이터와 순차 데이터의 시간적 패턴을 학습하는 신경망으로, RNN의 기울기 소실 문제를 LSTM과 GRU가 해결하여 장기 의존성 학습이 가능

RNN (Recurrent Neural Network)

  • 구조: 순환연결, 은닉상태(h_t) 전달
  • 장점: 가변길이입력, 파라미터공유
  • 단점: 기울기소실·폭발, 장기의존성학습어려움

LSTM (Long Short-Term Memory)

  • 구조: 셀상태(C_t) + 3개게이트(Forget·Input·Output)
  • 게이트: Forget(망각), Input(입력), Output(출력)
  • 장점: 장기의존성학습, 기울기소실해결
  • 단점: 파라미터많음, 계산복잡

GRU (Gated Recurrent Unit)

  • 구조: 2개게이트(Reset·Update), LSTM단순화
  • 장점: LSTM보다빠름, 파라미터적음, 비슷한성능
  • 단점: 매우긴시퀀스에서 LSTM보다약간낮은성능

적용분야: 자연어처리(번역·감성분석), 시계열예측(주가·기온), 음성인식, 동영상분석

적용사례: 기계번역(Seq2Seq), 음성인식(LSTM), 주가예측(GRU)

비교: RNN(기본·기울기소실) vs LSTM(장기의존성·복잡) vs GRU(단순·빠름)

연관: 딥러닝, 시계열, 자연어처리, Seq2Seq, 기울기소실, Attention