(设想) "多倍体" 动态可裁切 神经网络 (一种简单的 "可裁切" 实现方式):

+ 单倍体: 最小规模
+ 2 倍体: 2x 规模
+ 3 倍体: 3x 规模
+ 4 倍体: 4x 规模

.. .

+ N 倍体: Nx 规模

----
训练过程: 强制神经网络学会 "抓大放小".

+ (1) 单倍体网络训练: 使用最小规模的网络 (更高倍体的结构和参数都不存在), 取得最优结果.

+ (2) 2 倍体网络训练: 固定 单倍体 的参数 (权重) 不可变, 加入 2 倍体额外的结构和参数, 训练取得更好的效果 (旁路/混合结构)

+ (3) 逐渐加入更多的参数和结构, 直至达到最大规模.

上述训练过程: 锁定低倍体训练法 (非全局优化)

----
预期训练效果: 低倍体网络 "抓重点", 高倍体网络 "加细节".

比如训练 1 倍体 ~ 10 倍体, 就获得了 1 ~ 10 倍 连续变倍 "可裁切" 神经网络.

附图: "多倍体" 可裁切神经网络, "洋葱" 式多层 旁路/混合 结构示意图.

以上.

 #神经网络 #AI技术 #可裁切 #多倍体
