MindSpore Lite支持通过Python接口进行模型转换,支持多种类型的模型转换,转换后的模型可用于推理。接口包含多种个性化参数,为用户提供方便的转换途径。本教程介绍如何使用Python接口进行模型转换。
目前支持的输入模型类型有:MindSpore、TensorFlow Lite、Caffe、TensorFlow、ONNX和PyTorch。
当输入模型类型不是MindSpore时,通过转换工具转换成MindSpore Lite或MindSpore模型。另外,支持MindSpore模型转换为MindSpore Lite模型。对生成的模型进行推理时,需要的Runtime推理框架版本是与转换工具配套版本及更高版本。
使用MindSpore Lite的Python接口进行模型转换,需要进行如下环境准备工作。
编译或下载含Converter组件的MindSpore Lite的Whl安装包。
当前,提供下载Python3.7版本对应的安装包,若需要其他Python版本,请使用编译功能生成安装包。
然后使用pip install
命令进行安装。安装后可以使用以下命令检查是否安装成功:若无报错,则表示安装成功。
python -c "import mindspore_lite"
安装成功后,可使用pip show mindspore_lite
命令查看MindSpore Lite的Python模块的安装位置。
mindspore_lite
├── __pycache__
├── include
├── lib
│ ├── _c_lite_wrapper.cpython-37m-x86_64-linux-gnu.so # MindSpore Lite Python模块封装C++接口的框架的动态库
│ ├── libmindspore_converter.so # MindSpore Lite转换框架的动态库
│ ├── libmindspore_core.so # MindSpore Lite核心框架的动态库
│ ├── libmindspore_glog.so.0 # Glog的动态库
│ ├── libmindspore-lite.so # MindSpore Lite推理框架的动态库
│ ├── libmindspore-lite-train.so # MindSpore Lite训练框架的动态库
│ ├── libmslite_converter_plugin.so # 注册插件的动态库
│ ├── libopencv_core.so.4.5 # OpenCV的动态库
│ ├── libopencv_imgcodecs.so.4.5 # OpenCV的动态库
│ └── libopencv_imgproc.so.4.5 # OpenCV的动态库
├── __init__.py # 初始化包
├── context.py # context接口相关代码
├── converter.py # converter接口相关代码,转换入口
├── model.py # model接口相关代码,推理入口
├── tensor.py # tensor接口相关代码
└── version.py # MindSpore Lite版本号
MindSpore Lite的Python接口模型转换提供了多种参数设置,用户可根据需要来选择使用。
使用场景:1、将第三方模型转换生成MindSpore模型或MindSpore Lite模型;2、将MindSpore模型转换生成MindSpore Lite模型。
下面提供详细的参数说明以及与推理模型离线转换中参数的对应关系。
Python接口模型转换参数 | 参数类型 | 对应模型离线转换的参数 | 是否必选 | 参数说明 | 取值范围 | 默认值 |
---|---|---|---|---|---|---|
fmk_type | FmkType | --fmk=<FMK> |
是 | 输入模型框架类型。 | FmkType.TF、FmkType.CAFFE、FmkType.ONNX、FmkType.MINDIR、FmkType.TFLITE、FmkType.PYTORCH | - |
model_file | str | --modelFile=<MODELFILE> |
是 | 转换时的输入模型文件路径。 | - | - |
output_file | str | --outputFile=<OUTPUTFILE> |
是 | 转换时的输出模型的路径,可自动生成.ms 后缀。 |
- | - |
weight_file | str | --weightFile=<WEIGHTFILE> |
转换Caffe模型时必选 | 输入模型权重文件路径。 | - | "" |
config_file | str | --configFile=<CONFIGFILE> |
否 | Converter的配置文件路径,可配置训练后量化或离线拆分算子并行或禁用算子融合功能并将插件设置为so路径等功能。 | - | "" |
weight_fp16 | bool | --fp16=<FP16> |
否 | 设置在模型序列化时是否需要将Float32数据格式的权重存储为Float16数据格式。 | True、False | False |
input_shape | dict{string:list[int]} | --inputShape=<INPUTSHAPE> |
否 | 设置模型输入的维度,输入维度的顺序和原始模型保持一致。如:{"inTensor1": [1, 32, 32, 32], "inTensor2": [1, 1, 32, 32]} | - | None,None等同于{} |
input_format | Format | --inputDataFormat=<INPUTDATAFORMAT> |
否 | 设置导出模型的输入format,只对四维输入有效。 | Format.NCHW、Format.NHWC | Format.NHWC |
input_data_type | DataType | --inputDataType=<INPUTDATATYPE> |
否 | 设置量化模型输入Tensor的data type。仅当模型输入Tensor的量化参数(scale 和zero point )都具备时有效。默认与原始模型输入Tensor的data type保持一致。 |
DataType.FLOAT32、DataType.INT8、DataType.UINT8、DataType.UNKNOWN | DataType.FLOAT32 |
output_data_type | DataType | --outputDataType=<OUTPUTDATATYPE> |
否 | 设置量化模型输出Tensor的data type。仅当模型输出Tensor的量化参数(scale 和zero point )都具备时有效。默认与原始模型输出Tensor的data type保持一致。 |
DataType.FLOAT32、DataType.INT8、DataType.UINT8、DataType.UNKNOWN | DataType.FLOAT32 |
export_mindir | ModelType | --exportMindIR=<EXPORTMINDIR> |
否 | 设置导出模型文件的类型。 | ModelType.MINDIR、ModelType.MINDIR_LITE | ModelType.MINDIR_LITE |
decrypt_key | str | --decryptKey=<DECRYPTKEY> |
否 | 设置用于加载密文MindIR时的密钥,密钥用十六进制表示,只对fmk_type 为MINDIR时有效。 |
- | "" |
decrypt_mode | str | --decryptMode=<DECRYPTMODE> |
否 | 设置加载密文MindIR的模式,只在指定了decrypt_key 时有效。 |
"AES-GCM"、"AES-CBC" | "AES-GCM" |
enable_encryption | bool | --encryption=<ENCRYPTION> |
否 | 导出模型时是否加密,导出加密可保护模型完整性,但会增加运行时初始化时间。 | True、False | False |
encrypt_key | str | --encryptKey=<ENCRYPTKEY> |
否 | 设置用于加密文件的密钥,以十六进制字符表示。仅支持当decrypt_mode 是"AES-GCM",密钥长度为16。 |
- | "" |
infer | bool | --infer=<INFER> |
否 | 是否在转换完成时进行预推理。 | True、False | False |
train_model | bool | --trainModel=<TRAINMODEL> |
否 | 模型是否将在设备上进行训练。 | True、False | False |
no_fusion | bool | --NoFusion=<NOFUSION> |
否 | 是否避免融合优化,默认允许融合优化。 | True、False | False |
fmk_type
参数有关详细信息,请参见FmkType。由于支持转换PyTorch模型的编译选项默认关闭,因此下载的安装包不支持转换PyTorch模型。需要本地打开指定编译选项,编译生成支持转换PyTorch模型的安装包。转换PyTorch模型有以下前提:编译前需要export MSLITE_ENABLE_CONVERT_PYTORCH_MODEL=on;转换前加入libtorch的环境变量:export LD_LIBRARY_PATH="/home/user/libtorch/lib:${LD_LIBRARY_PATH}" && export LIB_TORCH_PATH="/home/user/libtorch"。用户可以下载CPU版本libtorch后解压到/home/user/libtorch路径。
model_file
举例:"/home/user/model.prototxt"。不同类型应模型后缀举例:TF: "model.pb" | CAFFE: "model.prototxt" | ONNX: "model.onnx" | MINDIR: "model.mindir" | TFLITE: "model.tflite" | PYTORCH: "model.pt or model.pth"。
output_file
参数说明:如果将export_mindir
设置为ModelType.MINDIR
,那么将生成MindSpore模型,该模型使用.mindir
作为后缀。如果将export_mindir
设置为ModelType.MINDIR_LITE
,那么将生成MindSpore Lite模型,该模型使用.ms
作为后缀。例如:输入模型为"/home/user/model.prototxt",export_mindir使用默认值,将在/home/user/路径下生成名为model.prototxt.ms的模型。Caffe模型一般分为两个文件:
*.prototxt
是模型结构,对应model_file
参数;model.caffemodel
是模型权值,对应weight_file
参数。
config_file
配置文件采用key = value
的方式定义相关参数,量化相关的配置参数详见训练后量化,扩展功能相关的配置参数详见扩展配置。
weight_fp16
的优先级很低,比如如果开启了量化,那么对于已经量化的权重,weight_fp16
不会再次生效。总而言之,该参数只会在序列化时对模型中的Float32的权重生效。
input_shape
在以下场景下,用户可能需要设置该参数:
- 用法1:待转换模型的输入是动态shape,准备采用固定shape推理,则设置该参数为固定shape。设置之后,在对Converter后的模型进行推理时,默认输入的shape与该参数设置一样,无需再进行resize操作。
- 用法2:无论待转换模型的原始输入是否为动态shape,准备采用固定shape推理,并希望模型的性能尽可能优化,则设置该参数为固定shape。设置之后,将对模型结构进一步优化,但转换后的模型可能会失去动态shape的特征(部分跟shape强相关的算子会被融合)。
- 用法3:使用Converter功能来生成用于Micro推理执行代码时,推荐配置该参数,以减少部署过程中出错的概率。当模型含有Shape算子或者待转换模型输入为动态shape时,则必须配置该参数,设置固定shape,以支持相关shape优化和代码生成。
input_format
:一般在集成NCHW规格的三方硬件场景下(例如集成NNIE使用说明),设为NCHW比NHWC会有较明显的性能提升。在其他场景下,用户也可按需设置。加解密功能仅在编译时设置为
MSLITE_ENABLE_MODEL_ENCRYPTION=on
时生效,并且仅支持Linux x86平台。其中密钥为十六进制表示的字符串,如密钥定义为b'0123456789ABCDEF'
对应的十六进制表示为30313233343536373839414243444546
,Linux平台用户可以使用xxd
工具对字节表示的密钥进行十六进制表达转换。 需要注意的是,加解密算法在1.7版本进行了更新,导致新版的Python接口不支持对1.6及其之前版本的MindSpore加密导出的模型进行转换。
下面选取了几个常用示例,说明转换命令的使用方法。
以Caffe模型LeNet为例。
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.CAFFE, model_file="lenet.prototxt", output_file="lenet", weight_file="lenet.caffemodel")
converter.converter()
本例中,因为采用了Caffe模型,所以需要模型结构、模型权值两个输入文件。再加上其他必需的fmk类型和输出路径两个参数,即可成功执行。
结果显示为:
CONVERT RESULT SUCCESS:0
这表示已经成功将Caffe模型转化为MindSpore Lite模型,获得新文件lenet.ms
。
以MindSpore、TensorFlow Lite、TensorFlow和ONNX模型为例,执行转换命令。
MindSpore模型model.mindir
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.MINDIR, model_file="model.mindir", output_file="model")
converter.converter()
TensorFlow Lite模型model.tflite
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.TFLITE, model_file="model.tflite", output_file="model")
converter.converter()
TensorFlow模型model.pb
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.TF, model_file="model.pb", output_file="model")
converter.converter()
ONNX模型model.onnx
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.ONNX, model_file="model.onnx", output_file="model")
converter.converter()
PyTorch模型model.pt
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.PYTORCH, model_file="model.pt", output_file="model")
converter.converter()
PyTorch模型model.pth
import mindspore_lite as mslite
converter = mslite.Converter(fmk_type=mslite.FmkType.PYTORCH, model_file="model.pth", output_file="model")
converter.converter()
转换PyTorch模型时,有以下前提:编译前需要export MSLITE_ENABLE_CONVERT_PYTORCH_MODEL=on;转换前加入libtorch的环境变量:export LD_LIBRARY_PATH="/home/user/libtorch/lib:${LD_LIBRARY_PATH}" && export LIB_TORCH_PATH="/home/user/libtorch"。用户可以下载CPU版本libtorch后解压到/home/user/libtorch路径。
以上几种情况下,均显示如下转换成功提示,且同时获得model.ms
目标文件。
CONVERTER RESULT SUCCESS:0
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。