"""
一机多卡 使用镜像策略 自动分配到所有逻辑设备上 

训练数据会分成N份 所以一般使用更大的batch_size 

因为batch_size变大了 所有一个epoch里面 更新参数的次数变少了 因此训练同样的epoch 效果往往不如单卡训练

可以通过增加epoch来提高训练效果

"""

import tensorflow as tf 

strategy = tf.distribute.MirroredStrategy()  # 定义策略

with strategy.scope():
    """ 定义模型 keras.Sequntial([])"""
    """ 编译模型 model.compile """

model.fit()  # 训练