from torch import nn
# import nn from torch
l = nn.Linear(2, 2)
r = nn.ReLU()
net = nn.Sequential(l, l, r, l)
# modules可以点进去
for idx, m in enumerate(net.modules()):
    print(idx, '->', m)
# 从最终的输出结果来看对net.modules()的遍历是一层一层的
# 进入将整个模型都遍历一遍，从最外层向内层遍历，并且在遍历
# 的过程中将重复的模块给去掉了
