MindSpore Serving是一个轻量级、高性能的服务模块,旨在帮助MindSpore开发者在生产环境中高效部署在线推理服务。当用户使用MindSpore完成模型训练 后,导出MindSpore模型,即可使用MindSpore Serving创建该模型的推理服务。
MindSpore Serving架构:
MindSpore Serving分为客户端、服务器两个部分。在客户端中,用户通过gRPC或RESTful接口向服务器下发推理服务命令。服务器包括主(Main
)节点和
一个或多个工作(Worker
)节点,主节点管理所有的工作节点及其部署的模型信息,接受客户端的用户请求,并将请求分发给工作节点。每个工作节点部署了
一个可服务对象,即Servable
,这里的Servable
可以是单个模型,也可以是多个模型的组合,一个Servable
可以围绕相同的模型通过多种方法来提供
不同的服务。
对于服务端,当以MindSpore作为推理后端时,MindSpore Serving当前支持Ascend 910/310P/310和Nvidia GPU环境。当以MindSpore Lite作为推理后端时,MindSpore Serving当前支持Ascend 310、Nvidia GPU和CPU。客户端不依赖特定硬件平台。
MindSpore Serving提供以下功能:
batch size
的需要。MindSpore Serving安装和配置可以参考MindSpore Serving安装页面。
以一个简单的Add网络示例,演示MindSpore Serving如何使用。
有关安装指南、教程和API的更多详细信息,请参阅用户文档。
查看MindSpore如何进行开放治理。
欢迎参与贡献。
版本说明请参阅RELEASE。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。
1. 开源生态
2. 协作、人、软件
3. 评估模型