[Home] AI로 돌아가기

GRU (Gated Recurrent Unit)

GRU는 RNN의 한 종류로, LSTM과 비슷한 목적을 가지되, 구조는 더 간단하다.

장기 의존성 문제를 완화하면서 계산 효율성을 높인 것이 주요 특징이다.

(1) 구성 요소

(2) 동작 원리

GRU는 은닉 상태와 셀 상태를 하나로 통합해 사용한다.

입력과 이전 상태를 바탕으로 두 개의 게이트가 정보 흐름을 조절하고, 새로운 은닉 상태를 생성한다.

이 덕분에 LSTM보다 학습 속도가 빠르며, 장기 의존성도 어느 정도 유지 가능하다.

(3) 응용 분야

(4) 장단점