토픽 44 / 172·딥러닝
RNN / LSTM / GRU (순환 신경망)
RNN / LSTM / GRU (순환 신경망)
순환 구조를 통해 시계열 데이터와 순차 데이터의 시간적 패턴을 학습하는 신경망으로, RNN의 기울기 소실 문제를 LSTM과 GRU가 해결하여 장기 의존성 학습이 가능
RNN (Recurrent Neural Network)
- •구조: 순환연결, 은닉상태(h_t) 전달
- •장점: 가변길이입력, 파라미터공유
- •단점: 기울기소실·폭발, 장기의존성학습어려움
LSTM (Long Short-Term Memory)
- •구조: 셀상태(C_t) + 3개게이트(Forget·Input·Output)
- •게이트: Forget(망각), Input(입력), Output(출력)
- •장점: 장기의존성학습, 기울기소실해결
- •단점: 파라미터많음, 계산복잡
GRU (Gated Recurrent Unit)
- •구조: 2개게이트(Reset·Update), LSTM단순화
- •장점: LSTM보다빠름, 파라미터적음, 비슷한성능
- •단점: 매우긴시퀀스에서 LSTM보다약간낮은성능
적용분야: 자연어처리(번역·감성분석), 시계열예측(주가·기온), 음성인식, 동영상분석
적용사례: 기계번역(Seq2Seq), 음성인식(LSTM), 주가예측(GRU)
비교: RNN(기본·기울기소실) vs LSTM(장기의존성·복잡) vs GRU(단순·빠름)
연관: 딥러닝, 시계열, 자연어처리, Seq2Seq, 기울기소실, Attention