AI & BigData/모두를 위한 딥러닝(정리)

텐서플로우(Tensor Flow) #17_ RNN Basic

Tigercow.Door 2018. 5. 20. 18:29


안녕하세요. 문범우입니다.

이번 포스팅에서는 텐서플로우를 이용한 기본적인 RNN모델에 대해서 알아보도록 하겠습니다.


* 해당 포스트의 모든 내용은 김성훈 교수님의 '모두를 위한 딥러닝'을 바탕으로 제작되었습니다.

관련한 상세 내용은 아래 링크를 참고해주세요.

https://hunkim.github.io/ml/



1. RNN



우리가 이전, 이론에서 알아보았듯이 RNN 모델에서는 아웃풋이 다시금 영향을 주게 됩니다.

위에서 왼쪽과 같은 것을 cell이라고 표현하는데, 즉 cell의 아웃풋이 다시 cell에 영향을 주게 됩니다. 그리고 이것이 기존의 Neural Network과 큰 다른점 입니다.

그런데, 이것을 실제로 어떻게 구현할까요?

생각보다 의외로, 텐서플로우에서 쉽게 구현이 가능합니다.


텐서플로우에서 RNN을 구현할때, 크게 두가지 단계로 나눠볼 수 있습니다.

첫번째는 다음과 같은 코드입니다.


1
cell = tf.contrib.rnn.BasicLSTMCell(num_units=hidden_size, state_is_tuple=True)
cs


우선 위에서 말한 Cell을 만듭니다. 이때 cell은 어떤 형태인지 정할 수 있습니다. 기본적으로 위의 사진과 같이 RNN형태도 있으며 위의 코드와 같이 LSTM과 같은 형태도 있습니다.

그리고 이렇게 cell을 만들때 가장 중요한 점은, cell의 아웃풋(출력)의 크기가 얼마일지 정하는 것입니다. 이를 위의 사진 및 코드에서 볼 수 있듯이 num_units라고 하기도 하며 hidden_size라고 하기도 합니다.


그리고 두번째로, 방금 만든 cell을 실제로 구동하여 입력에 대한 출력값을 뽑아냅니다.


1
outputs, _states = tf.nn.dynamic_rnn(cell, X, initial_state=initial_state, dtype=tf.float32)
cs


이를 하기 위해 일반적으로 dynamic_rnn을 사용합니다.

이 함수를 이용하여 우리가 만들어준 cell을 넘겨주고 우리가 원하는 입력데이터를 넘겨줍니다. 

그럼 이 함수는 두개의 출력을 반환하는데, 하나는 결과 값인 outputs이며 하나는 해당 states의 값 입니다.

states값은 우리가 직접적으로 사용할 일은 별로 없고 일반적으로 outputs을 이용하게 됩니다.


이렇게 두단계로 나뉘게 된 이유는 여러가지가 있을텐데, 그 중 가장 중요한 이유중 하나는 cell을 만드는 단계와 cell을 이용하여 구동하는 단계를 나눠줌으로써 우리가 원하는 cell의 형태를 자유롭게 바꾸어가면서 모델을 구동할 수 있는 것 입니다.



2. Input&Output Data



이제 우리가 구현할 모델에 대한 입력 데이터를 살펴보도록 하겠습니다.

여기서는 우리가 문자열 데이터를 다루게 될 텐데, 이를 벡터로 다루기 가장 좋은 방법 중 하나가 one-hot encoding 입니다. 즉 위의 사진과 같이 알파벳을 표현합니다.


실제로, 김성훈 교수님 github에서는 아래와 같이 one-hot encoding을 이용하여 입력 데이터를 설정하였습니다.


1
2
3
4
5
6
7
x_data = [[010233]]   # hihell
x_one_hot = [[[10000],   # h 0
              [01000],   # i 1
              [10000],   # h 0
              [00100],   # e 2
              [00010],   # l 3
              [00010]]]  # l 3
cs


그럼 이에 따른 Output data의 dimension은 어떻게 될까요?

이는, 여러분이 정해주기 나름입니다.


우리가 cell을 만들때 hidden size를 정한다고 했습니다. output data의 dimension은 우리가 정한 hidden size에 따라 결정됩니다.

즉, input data의 dimension이 어떻든 간에 상관없이 output data의 dimension은 hidden size로 결정됩니다.


실제로 따로 training 없이, 단지 input data와 output data를 확인하기 위한 코드는 아래와 같습니다.

먼저, output data의 dimension을 결정할 hidden size를 결정하였습니다.

그리고 input data에 맞춰서 cell을 만들었습니다.

이후, input data를 만드는데 위에서는 dimension = 4 인 input data를 만들었습니다.

그리고 이를 구동하고 outputs를 출력해보면 우리가 hidden size를 2로 설정한 것과 같이 2개의 값이 나왔습니다.



실제로 cell의 shape을 확인해보면 위 그림의 왼쪽에 나온 것처럼, 3개의 숫자를 가지고 있습니다. 이때 맨마지막 값은 dimension으로써 우리가 hidden size를 통해 결정된다는 것을 알았습니다.


그럼 나머지 두개의 숫자는 무엇을 의미할까요?


먼저, 가운데에 있는 숫자는 sequence_length를 의미합니다.

우리가 사용하는 RNN의 가장 큰 장점은 우리가 시리즈 데이터를 받을 수 있는 것입니다. 즉, 우리가 받을 시리즈 데이터가 몇개인지를 의미하는 것이 sequence length로써 cell shape의 두번째에 위치하는 값입니다.

이는 우리가 입력데이터를 설정할때 주는 값으로 설정이 됩니다. 그리고 아웃풋데이터도 이를 따라가게 됩니다.



이를 포함한 코드를 살펴보면, 위와 같습니다.

여기서 x_data 를 설정한 코드를 보시면, [h, e, l, l, o] 라고 작성한 것처럼 직접 변수를 이용하여 sequence data를 넣어주고, 그 길이가 sequence length로 설정됩니다.

그리고 나머지는 위에서 확인했던 것과 같습니다.

모델을 구동시켜 나온 output를 확인해보면 그 sequence length 또한 5인것을 확인할 수 있습니다.


그럼 마지막으로, celld의 shape에서 첫번째 숫자가 의미하는 것을 알아보도록 하겠습니다.



우리가 학습을 시킬때, 한줄씩, 문자열 하나씩 학습시키기는 것은 너무나 비효율적입니다. 이를 효율적으로 하기 위해서는 한번에 여러개의 문자열을 학습시키는 것입니다. 이때 한번에 몇개의 문자열을 학습시킬 것인지 정하는 것을 batch size라고 하며 이것이 shape에서 첫번째 값이 의미하는 것 입니다.


위의 그림처럼 batch size를 3으로 함으로써 한번에 3개의 문자열을 입력하여 훈련하도록 합니다.


이또한 코드를 통해서 한번 더 확인해보도록 하겠습니다.



위와 같이 x_data를 설정할때 문자열을 3개 넣음으로써 batch_size가 3으로 설정된다는 것을 알 수 있습니다.

그리고 이에 맞춰서 결과에서 또한 3개의 output이 나오는 것을 볼 수 있습니다.


728x90