RNN (Recurrent Neural Network) in Keras
2019.09.26
RNN RNN은 현재의 입력 뿐만 아니라, 이전에 인식했던 내용을 함께 수용합니다. 즉, 이전의 값을 다시 입력으로 받는 Reccurent Connection이 존재합니다. 이런 재귀성 때문에 RNN이라고 부릅니다. 이런 구조는 연속적인 정보에 효과적입니다. 예를들어, 문자의 경우 '소녀시대'라는 단어가 있을 때, ['소', '녀', '시', '대']를 각각 독립적으로 보기보다는, '녀'가 '소' 뒤에 왔을 때, '소녀'에서의 '녀'를 볼 수 있도록 하는 것이 좋습니다. ['대', '소', '시', '녀']와 같이 된다면 의미가 달라지는 것 처럼, 문장 혹은 문서에서의 이러한 연속성은 매우 중요합니다. 간단한 예로 음절 단위의 분할을 하였지만, 다른 경우도 마찬가지입니다. 또한 직전 하나의 출력만 보는 ..