@rongtingji
吉荣庭-杭州电子科技大学云技术研究中心(曾艳) 暂无简介
MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。
deepspeed-moe 训练与推理
nvidia apex clone
镜像Openai-gpt2