# 循环神经网络RNN
# 具有短期记忆的神经网络结果，会把之前的输出作为下一个时间步的输入
# LSTM是一种RNN的特殊类型，可以解决RNN中的长期依赖问题。
# GRU是LSTM的一种变形版本，它将遗忘门和输入门组合成一个更新门，并且合并了单元状态和隐藏状态，模型更加简单。
# 单向的RNN是根据前面的信息推后面信息，但是有时候需要从后往前推，所以就需要双向的LSTM/GRU。
from rnn.imdb import dataset

if __name__ == '__main__':
    for idx, (input, target) in enumerate(dataset.get_data_loader(True)):
        print(idx)
        print(input)
        print(target)
        break
