RNN
2020. 12. 13. 23:58ㆍDeep Learning/개념
728x90
Sequence data, 예를들어 문장 같은 경우 한 단어만으로는 이해할 수 없습니다. 전 단어와 현 단어를 기반으로 이해해야 합니다. -> Time Series
이런 데이터를 학습하기 위한 모델이 RNN입니다.


그림을 보면 알 수 있듯이 앞에서의 결과가 다음으로 전달됩니다.
다음은 간단히 hello라는 문장을 예로 든 그림입니다.
검색을 할 때 연관검색어가 뜨는 등의 역할을 할 수 있습니다.

RNN 구조는 다음과 같이 큰 유연성을 가집니다.

● RNN Cases
1. Vanilla RNN
activation 함수로 tanh를 사용합니다.
2. LSTM RNN
Vanishing Gradient Problem해결을 위해 RNN의 히든 state에 cell-state를 추가한 구조입니다.
⊙는 요소별 곱셈을 뜻합니다.(Hadamard product)



forget gate는 과거정보를 잊기 위한 gate, input gate는 현재정보를 기억하기 위한 gate라고 생각하면 됩니다.
즉, LSTM에선 다음층으로 기억된 값을 넘길지, 안넘길지 관리하는 단계를 하나 더 추가한 것이죠.(forget gate)
728x90
'Deep Learning > 개념' 카테고리의 다른 글
VGG16 (0) | 2020.12.14 |
---|---|
GAN (0) | 2020.12.14 |
CNN (0) | 2020.12.13 |
GD Algorithm(경사하강법)/ Backpropagation(오차 역전파)/Activation function (0) | 2020.12.13 |
딥러닝이란?<Neural Network> (0) | 2020.12.13 |