diff --git a/docs/lite/docs/source_en/advanced/micro.md b/docs/lite/docs/source_en/advanced/micro.md index b2159bb0ca9317bf4f5ba798f511ae29e22cc34c..2082a800af6733a4f11fdd0a44aac83c2e1f39fc 100644 --- a/docs/lite/docs/source_en/advanced/micro.md +++ b/docs/lite/docs/source_en/advanced/micro.md @@ -184,7 +184,7 @@ Table 1: micro_param Parameter Definition # set project name. - project_name=minst + project_name=mnist [model_param] @@ -1172,7 +1172,7 @@ Finally, we compile the source code: ```shell -mkdir buid && cd build +mkdir build && cd build cmake -DCMAKE_TOOLCHAIN_FILE=/mindspore-lite/cmake/himix200.toolchain.cmake -DPLATFORM_ARM32=ON -DPKG_PATH= .. diff --git a/docs/lite/docs/source_en/advanced/quantization.md b/docs/lite/docs/source_en/advanced/quantization.md index 5425699e9ea21df624ee7e0382afb98ff44008b5..f125d8052d469265ff70d55e93c3f120823b8c57 100644 --- a/docs/lite/docs/source_en/advanced/quantization.md +++ b/docs/lite/docs/source_en/advanced/quantization.md @@ -448,7 +448,7 @@ For the image calibration dataset, post training quantization provides data prep | normalize_std | Optional | Normalized standard deviation
dst = (src - mean) / std | Vector | - | Channel 3: [std_1, std_2, std_3]
Channel 1: [std_1] | | resize_width | Optional | Resize width | Integer | - | [1, 65535] | | resize_height | Optional | Resize height | Integer | - | [1, 65535] | -| resize_method | Optional | Resize algorithm | String | - | LINEAR, NEAREST, CUBIC
LINEAR: Bilinear interpolation
NEARST: Nearest neighbor interpolation
CUBIC: Bicubic interpolation | +| resize_method | Optional | Resize algorithm | String | - | LINEAR, NEAREST, CUBIC
LINEAR: Bilinear interpolation
NEAREST: Nearest neighbor interpolation
CUBIC: Bicubic interpolation | | center_crop_width | Optional | Center crop width | Integer | - | [1, 65535] | | center_crop_height | Optional | Center crop height | Integer | - | [1, 65535] | @@ -524,7 +524,7 @@ The data distribution statistics report `round_*.csv` counts the distribution of | NodeName | Node name | | NodeType | Node type | | TensorName | Tensor name | -| InOutFlag | Tensor output, output type | +| InOutFlag | Tensor input, output type | | DataTypeFlag | Data type, Origin for raw data, Dequant for inverse quantized data | | TensorTypeFlag | Data classes such as inputs and outputs are represented as Activation, and constants are represented as Weight. | | Min | Minimum, 0% quantile point | diff --git a/docs/lite/docs/source_zh_cn/advanced/image_processing.md b/docs/lite/docs/source_zh_cn/advanced/image_processing.md index b92b4801174af62ccc457fa279e3b470130cbe99..7865aeb031082f06a782d14b1ff60c332170d462 100644 --- a/docs/lite/docs/source_zh_cn/advanced/image_processing.md +++ b/docs/lite/docs/source_zh_cn/advanced/image_processing.md @@ -15,7 +15,7 @@ ## 对图像进行初始化 -这边使用的是`image_process.h`文件中的[InitFromPixel](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_InitFromPixel-1.html)函数对图像进行初始化操作。 +此处使用的是`image_process.h`文件中的[InitFromPixel](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_InitFromPixel-1.html)函数对图像进行初始化操作。 ```cpp bool InitFromPixel(const unsigned char *data, LPixelType pixel_type, LDataType data_type, int w, int h, LiteMat &m) @@ -38,7 +38,7 @@ InitFromPixel(pixel_ptr, LPixelType::RGBA2GRAY, LDataType::UINT8, rgba_mat.cols, ### 对图像进行缩放操作 -这边利用的是`image_process.h`中的[ResizeBilinear](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_ResizeBilinear-1.html)函数通过双线性算法调整图像大小,当前仅支持的数据类型为uint8,当前支持的通道为3和1。 +此处利用的是`image_process.h`中的[ResizeBilinear](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_ResizeBilinear-1.html)函数通过双线性算法调整图像大小,当前仅支持的数据类型为uint8,当前支持的通道为3和1。 ```cpp bool ResizeBilinear(const LiteMat &src, LiteMat &dst, int dst_w, int dst_h) @@ -60,7 +60,7 @@ ResizeBilinear(lite_mat_bgr, lite_mat_resize, 256, 256); ### 对图像数据类型进行转换 -这边利用的是`image_process.h`中的[ConvertTo](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_ConvertTo-1.html)函数对图像数据类型进行转换,目前支持的转换是将uint8转换为float。 +此处利用的是`image_process.h`中的[ConvertTo](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_ConvertTo-1.html)函数对图像数据类型进行转换,目前支持的转换是将uint8转换为float。 ```cpp bool ConvertTo(const LiteMat &src, LiteMat &dst, double scale = 1.0) @@ -82,7 +82,7 @@ ConvertTo(lite_mat_bgr, lite_mat_convert_float); ### 对图像数据进行裁剪 -这边利用的是`image_process.h`中的[Crop](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_Crop-1.html)函数对图像进行裁剪,目前支持通道3和1。 +此处利用的是`image_process.h`中的[Crop](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_Crop-1.html)函数对图像进行裁剪,目前支持通道3和1。 ```cpp bool Crop(const LiteMat &src, LiteMat &dst, int x, int y, int w, int h) @@ -104,7 +104,7 @@ Crop(lite_mat_bgr, lite_mat_cut, 16, 16, 224, 224); ### 对图像数据进行归一化处理 -为了消除数据指标之间的量纲影响,通过标准化处理来解决数据指标之间的可比性问题,这边利用的是`image_process.h`中的[SubStractMeanNormalize](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_SubStractMeanNormalize-1.html)函数对图像数据进行归一化处理。 +为了消除数据指标之间的量纲影响,通过标准化处理来解决数据指标之间的可比性问题,此处利用的是`image_process.h`中的[SubStractMeanNormalize](https://www.mindspore.cn/lite/api/zh-CN/r2.7.1/generate/function_mindspore_dataset_SubStractMeanNormalize-1.html)函数对图像数据进行归一化处理。 ```cpp bool SubStractMeanNormalize(const LiteMat &src, LiteMat &dst, const std::vector &mean, const std::vector &std) diff --git a/docs/lite/docs/source_zh_cn/advanced/micro.md b/docs/lite/docs/source_zh_cn/advanced/micro.md index 977823271cd8a613b182635d82949f887d09b2ca..23dc97bfb6279ad158909bca1431e54b30181ea2 100644 --- a/docs/lite/docs/source_zh_cn/advanced/micro.md +++ b/docs/lite/docs/source_zh_cn/advanced/micro.md @@ -184,7 +184,7 @@ MindSpore Lite针对MCUs部署硬件后端,提供了一种超轻量Micro AI部 # set project name. - project_name=minst + project_name=mnist [model_param] @@ -1168,7 +1168,7 @@ target_link_libraries(benchmark net micro_nnie nnie mpi VoiceEngine upvqe dnvqe ```shell -mkdir buid && cd build +mkdir build && cd build cmake -DCMAKE_TOOLCHAIN_FILE=/mindspore-lite/cmake/himix200.toolchain.cmake -DPLATFORM_ARM32=ON -DPKG_PATH= .. diff --git a/docs/lite/docs/source_zh_cn/advanced/quantization.md b/docs/lite/docs/source_zh_cn/advanced/quantization.md index 44de3f5b4e76965630754523ad0780d847f3261c..332964fe0bd136e232a63b543a266a3b67b19334 100644 --- a/docs/lite/docs/source_zh_cn/advanced/quantization.md +++ b/docs/lite/docs/source_zh_cn/advanced/quantization.md @@ -53,7 +53,7 @@ init_scale=0.02 ``` 用户可根据模型及自身需要对权重量化的参数作出调整。 -> init_scale默认的初始值为0.02,搜索的压缩率相当与6-7固定比特的压缩效果。 +> init_scale默认的初始值为0.02,搜索的压缩率相当于6-7固定比特的压缩效果。 > > 混合比特需要搜索最佳比特位,等待时间可能较长,如果需要查看日志,可以在执行前设置export GLOG_v=1,用于打印相关Info级别日志。 @@ -448,7 +448,7 @@ target_device=NVGPU | normalize_std | 可选 | 图像归一化的标准差
dst = (src - mean) / std | Vector | - | 3通道:[std_1, std_2, std_3]
1通道:[std_1] | | resize_width | 可选 | 图像缩放宽度 | Integer | - | [1, 65535] | | resize_height | 可选 | 图像缩放高度 | Integer | - | [1, 65535] | -| resize_method | 可选 | 图像缩放算法 | String | - | LINEAR、NEAREST、CUBIC
LINEAR:线性插值
NEARST:最邻近插值
CUBIC:三次样条插值 | +| resize_method | 可选 | 图像缩放算法 | String | - | LINEAR、NEAREST、CUBIC
LINEAR:线性插值
NEAREST:最邻近插值
CUBIC:三次样条插值 | | center_crop_width | 可选 | 中心裁剪宽度 | Integer | - | [1, 65535] | | center_crop_height | 可选 | 中心裁剪高度 | Integer | - | [1, 65535] | @@ -524,7 +524,7 @@ debug_info_save_path=/home/workspace/mindspore/debug_info_save_path | NodeName | 节点名 | | NodeType | 节点类型 | | TensorName | Tensor名 | -| InOutFlag | Tensor输出、输出类型 | +| InOutFlag | Tensor输入、输出类型 | | DataTypeFlag | 数据类型,原始数据用Origin,反量化后的数据用Dequant | | TensorTypeFlag | 针对输入输出等数据类用Activation表示,常量等用Weight表示 | | Min | 最小值,0%分位点 | @@ -557,7 +557,7 @@ debug_info_save_path=/home/workspace/mindspore/debug_info_save_path ### 部分算子跳过量化 -量化是将float32算子转换int8算子,目前的量化策略是针对可支持的某一类算子所包含的Node都会进行量化,但是存在部分Node敏感度较高,量化后会引发较大的误差,同时某些层量化后推理速度远低于float16的推理速度。支持指定层不量化,可以有效提高精度和推理速度。 +量化是将float32算子转换为int8算子,目前的量化策略是针对可支持的某一类算子所包含的Node都会进行量化,但是存在部分Node敏感度较高,量化后会引发较大的误差,同时某些层量化后推理速度远低于float16的推理速度。支持指定层不量化,可以有效提高精度和推理速度。 下面将`conv2d_1`、 `add_8`和 `concat_1`三个Node不进行量化的示例: @@ -588,7 +588,7 @@ skip_quant_node=conv2d_1,add_8,concat_1 | [Mobilenet_V1_1.0_224](https://storage.googleapis.com/download.tensorflow.org/models/mobilenet_v1_2018_02_22/mobilenet_v1_1.0_224.tgz) | [ImageNet](http://image-net.org/) | 70.96% | 70.56% | | [Mobilenet_V2_1.0_224](https://storage.googleapis.com/download.tensorflow.org/models/tflite_11_05_08/mobilenet_v2_1.0_224.tgz) | [ImageNet](http://image-net.org/) | 71.56% | 71.53% | -以上所有结果均在x86环境上测得。 +以上所有结果均在x86环境中测得。 ### 全量化 diff --git a/docs/lite/docs/source_zh_cn/advanced/third_party/tensorrt_info.md b/docs/lite/docs/source_zh_cn/advanced/third_party/tensorrt_info.md index dea7b1565775667ab3f7243bff95643bf1b68fd0..7ce600e4bad9321cc45dab1bbb9837cf3920ef01 100644 --- a/docs/lite/docs/source_zh_cn/advanced/third_party/tensorrt_info.md +++ b/docs/lite/docs/source_zh_cn/advanced/third_party/tensorrt_info.md @@ -6,7 +6,7 @@ ### 环境准备 -在基本的[环境准备](https://www.mindspore.cn/lite/docs/zh-CN/r2.7.1/build/build.html)之外,使用TensorRT需要集成CUDA、TensorRT。当前版本适配[CUDA 10.1](https://developer.nvidia.com/cuda-10.1-download-archive-base) 和[TensorRT 6.0.1.5](https://developer.nvidia.com/nvidia-tensorrt-6x-download) 以及 [CUDA 11.1](https://developer.nvidia.com/cuda-11.1.1-download-archive) 和 [TensorRT 8.5.1](https://developer.nvidia.com/nvidia-tensorrt-8x-download). +在基本的[环境准备](https://www.mindspore.cn/lite/docs/zh-CN/r2.7.1/build/build.html)之外,使用TensorRT需要集成CUDA、TensorRT。当前版本适配[CUDA 10.1](https://developer.nvidia.com/cuda-10.1-download-archive-base) 和[TensorRT 6.0.1.5](https://developer.nvidia.com/nvidia-tensorrt-6x-download) 以及 [CUDA 11.1](https://developer.nvidia.com/cuda-11.1.1-download-archive) 和 [TensorRT 8.5.1](https://developer.nvidia.com/nvidia-tensorrt-8x-download)。 安装相应版本的CUDA,并将安装后的目录设置为环境变量`${CUDA_HOME}`。构建脚本将使用这个环境变量寻找CUDA。 diff --git a/docs/lite/docs/source_zh_cn/build/build.md b/docs/lite/docs/source_zh_cn/build/build.md index 01ae840c3034d3b67907781658d9eb280c2faade..036d738011abffd9b4bcad7c42e95bdb2ac08d94 100644 --- a/docs/lite/docs/source_zh_cn/build/build.md +++ b/docs/lite/docs/source_zh_cn/build/build.md @@ -80,7 +80,7 @@ MindSpore Lite根目录下的`build.sh`脚本可用于MindSpore Lite的编译。 | 选项 | 参数说明 | 取值范围 | 默认值 | | -------- | ----- | ---- | ---- | - | MSLITE_GPU_BACKEND | 设置GPU后端,在非OpenHarmony系统且`-I arm64`时仅opencl有效,在`-I x86_64`时仅tensorrt有效 | opencl、tensorrt、off | 在`-I arm64`时为opencl, 在`-I x86_64`时为off | + | MSLITE_GPU_BACKEND | 设置GPU后端,在非OpenHarmony系统且`-I arm64`时仅opencl有效,在`-I x86_64`时仅tensorrt有效 | opencl、tensorrt、off | 在`-I arm64`时为opencl,在`-I x86_64`时为off | | MSLITE_ENABLE_NPU | 是否编译Kirin NPU算子,仅在非OpenHarmony系统且`-I arm64`或`-I arm32`时有效 | on、off | off | | MSLITE_ENABLE_TRAIN | 是否编译训练版本 | on、off | on | | MSLITE_ENABLE_SSE | 是否启用SSE指令集,仅在`-I x86_64`时有效 | on、off | off | @@ -153,7 +153,7 @@ git clone -b r2.7.1 https://gitee.com/mindspore/mindspore-lite.git - 编译OpenHarmony系统的aarch32或aarch64的包: - 编译aarch32 + 编译aarch32: ```bash export OHOS_NDK=NDK路径 @@ -161,7 +161,7 @@ git clone -b r2.7.1 https://gitee.com/mindspore/mindspore-lite.git bash build.sh -I arm32 -j32 ``` - 编译aarch64 + 编译aarch64: ```bash export OHOS_NDK=NDK路径 @@ -178,7 +178,7 @@ git clone -b r2.7.1 https://gitee.com/mindspore/mindspore-lite.git - `mindspore-lite-{version}-{python}-{os}-{arch}.whl`:包含runtime(Python)的Whl包。 > - version: 输出件版本号,与所编译的分支代码对应的版本一致。 -> - python: 输出件Python版本, 如:Python3.7为`cp37-cp37m`。 +> - python: 输出件Python版本,如:Python3.7为`cp37-cp37m`。 > - os: 输出件应部署的操作系统。 > - arch: 输出件应部署的系统架构。 diff --git a/docs/lite/docs/source_zh_cn/converter/converter_tool.md b/docs/lite/docs/source_zh_cn/converter/converter_tool.md index 45a26fb155bf652b0cbeda88d157c3394d035d45..6d358eddaa80f568d0b177d40294cfd1d8b2bd88 100644 --- a/docs/lite/docs/source_zh_cn/converter/converter_tool.md +++ b/docs/lite/docs/source_zh_cn/converter/converter_tool.md @@ -67,7 +67,7 @@ MindSpore Lite模型转换工具提供了多种参数设置,用户可根据需 | `--fp16=` | 否 | 设定在模型序列化时是否需要将float32数据格式的权重存储为float16数据格式。 | on、off | off | - | | `--inputShape=` | 否 | 设定模型输入的维度,输入维度的顺序和原始模型保持一致。对某些特定的模型可以进一步优化模型结构,但是转化后的模型将可能失去动态shape的特性。多个输入用`;`分割,同时加上双引号`""`。 | e.g. "inTensorName_1: 1,32,32,4;inTensorName_2:1,64,64,4;" | - | - | | `--saveType=` | 否 | 设定导出的模型为`mindir`模型或者`ms`模型。 | MINDIR、MINDIR_LITE | MINDIR_LITE | 端侧推理版本只有设置为MINDIR_LITE转出的模型才可以推理 | -| `--optimize=` | 否 | 设定转换模型的过程所完成的优化。 | none、general、gpu_oriented、ascend_oriented | general | - | - | +| `--optimize=` | 否 | 设定转换模型的过程所完成的优化。 | none、general、gpu_oriented、ascend_oriented | general | - | | `--inputDataFormat=` | 否 | 设定导出模型的输入format,只对四维输入有效。 | NHWC、NCHW | NHWC | - | | `--decryptKey=` | 否 | 设定用于加载密文MindIR时的密钥,密钥用十六进制表示,只对`fmk`为MINDIR时有效。 | - | - | - | | `--decryptMode=` | 否 | 设定加载密文MindIR的模式,只在指定了decryptKey时有效。 | AES-GCM、AES-CBC | AES-GCM | - | diff --git a/docs/lite/docs/source_zh_cn/infer/quick_start_cpp.md b/docs/lite/docs/source_zh_cn/infer/quick_start_cpp.md index e0b9315e4cb590b872320a196b313e010ff78694..7b39ffe9c770cbe1780e8bd0cf0bad8b7609643b 100644 --- a/docs/lite/docs/source_zh_cn/infer/quick_start_cpp.md +++ b/docs/lite/docs/source_zh_cn/infer/quick_start_cpp.md @@ -35,7 +35,7 @@ - 编译构建 - 在`mindspore-lite/examples/quick_start_cpp`目录下执行[build脚本](https://gitee.com/mindspore/mindspore-lite/blob/r2.7.1/mindspore-lite/examples/quick_start_cpp/build.sh),将自动下载MindSpore Lite推理框架库以及文模型文件并编译Demo。 + 在`mindspore-lite/examples/quick_start_cpp`目录下执行[build脚本](https://gitee.com/mindspore/mindspore-lite/blob/r2.7.1/mindspore-lite/examples/quick_start_cpp/build.sh),将自动下载MindSpore Lite推理框架库以及模型文件并编译Demo。 ```bash bash build.sh