今後必要になってくるはずなのでまとめてみる.
- Recurrent Neural Network (回帰結合ニューラルネットワーク):
- 時系列データを扱うNN.
- 隠れ層の出力が2種類: 次の層へつながる出力,自身につながる出力
- Back Propagation Through Time (BPTT): 自身につながる出力を持つ隠れ層に対する学習方法
- Long Short-Term Memory (LSTM) [1]:
- Connectionist Temporal Classification:
- RNN, LSTMにおける「入力,出力の次元数が等しい」制約を解決
- 空白ラベル'_'を導入
- Sequence-to-sequence Learning
- S. Hochreiter and J. Schmidhuber, "Long Short-Term Memory." Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997.
- Keras.layers.LSTM
- 入力ベクトルの次元数を揃える必要がある? −> keras.preprocessing.sequence.pad_sequencesを使ってパディングする