[Home] AI로 돌아가기
GRU (Gated Recurrent Unit)
GRU는 RNN의 한 종류로, LSTM과 비슷한 목적을 가지되, 구조는 더 간단하다.
장기 의존성 문제를 완화하면서 계산 효율성을 높인 것이 주요 특징이다.
(1) 구성 요소
- Update Gate: 이전 상태의 정보를 얼마나 유지할지 결정
- Reset Gate: 과거 정보를 얼마나 잊을지 조절
(2) 동작 원리
GRU는 은닉 상태와 셀 상태를 하나로 통합해 사용한다.
입력과 이전 상태를 바탕으로 두 개의 게이트가 정보 흐름을 조절하고, 새로운 은닉 상태를 생성한다.
이 덕분에 LSTM보다 학습 속도가 빠르며, 장기 의존성도 어느 정도 유지 가능하다.
(3) 응용 분야
- 자연어 처리 (예: 감정 분석, 기계 번역)
- 시계열 예측 (예: 주가, 센서 데이터)
- 음성 및 오디오 신호 처리
(4) 장단점
- 장점: 구조가 단순하여 계산 속도가 빠르고, 적은 데이터에서도 학습 가능
- 단점: 복잡한 장기 의존성 문제에서는 LSTM보다 성능이 떨어질 수 있음