335 Star 1.5K Fork 858

MindSpore / docs

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
DistributedTrain.md 1.59 KB
一键复制 编辑 原始数据 按行查看 历史
宦晓玲 提交于 2023-07-21 16:52 . modify the md links 1.8

比较与tf.distribute.Strategy的功能差异

查看源文件

tf.distribute.Strategy

strategy = tf.distribute.MirroredStrategy()
per_replica_losses = strategy.run(train_step, args=(dataset_inputs,))
losses =  strategy.reduce(tf.distribute.ReduceOp.SUM, per_replica_losses,
                          axis=None)

更多内容详见tf.distribute.Strategy

mindspore.set_auto_parallel_context(parallel_mode=ParallelMode.DATA_PARALLEL, gradients_mean=True)

import mindspore as ms
from mindspore.communication import init
ms.set_auto_parallel_context(parallel_mode=ms.ParallelMode.DATA_PARALLEL, gradients_mean=True)
init()
# Run net, the same with stand alone training

更多内容详见set_auto_parallel_context(ParallelMode=ParallelMode.DataParallel)

使用方式

TensorFlow:通过tf.distribute.Strategy执行数据并行训练,不同策略指定不同的数据初始化、同步等策略。

MindSpore:通过set_auto_parallel_context中的ParallelMode参数的指定数据并行模式,通过gradients_mean参数指定梯度同步策略, 其余网络脚本部分与单卡网络脚本保持一致。

1
https://gitee.com/mindspore/docs.git
git@gitee.com:mindspore/docs.git
mindspore
docs
docs
r1.8

搜索帮助