目录:
本示例将以语义分割模型PP-Liteseg为例,介绍如何使用PaddleSlim中的ACT压缩工具型进行自动压缩。本示例使用的自动压缩策略为量化蒸馏训练。
模型 | 策略 | Total IoU (%) | CPU耗时(ms) thread=10 mkldnn=on |
Nvidia GPU耗时(ms) TRT=on |
配置文件 | Inference模型 |
---|---|---|---|---|---|---|
OCRNet_HRNetW48 | Baseline | 82.15 | 4332.2 | 154.9 | - | mode |
OCRNet_HRNetW48 | 量化蒸馏训练 | 82.03 | 3728.7 | 59.8 | config | model |
SegFormer-B0* | Baseline | 75.27 | 285.4 | 34.3 | - | model |
SegFormer-B0* | 量化蒸馏训练 | 75.22 | 284.1 | 35.7 | config | model |
PP-LiteSeg-Tiny | Baseline | 77.04 | 640.72 | 11.9 | - | model |
PP-LiteSeg-Tiny | 量化蒸馏训练 | 77.14 | 450.19 | 7.5 | config | model |
PP-MobileSeg-Base | Baseline | 41.55 | 311.1 | 17.8 | - | model |
PP-MobileSeg-Base | 量化蒸馏训练 | 39.08 | 303.6 | 16.2 | config | model |
CPU测试环境:
Nvidia GPU测试环境:
测速要求:
下面将以开源数据集为例介绍如何对PP-Liteseg进行自动压缩。
安装paddlepaddle:
# CPU
python -m pip install paddlepaddle==2.5.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
# GPU 以Ubuntu、CUDA 10.2为例
python -m pip install paddlepaddle-gpu==2.5.1.post102 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html
安装paddleslim 2.5:
pip install paddleslim@git+https://gitee.com/paddlepaddle/PaddleSlim.git@release/2.5
安装paddleseg develop和对应包:
cd ..
git clone https://github.com/PaddlePaddle/PaddleSeg.git -b develop
cd PaddleSeg/
python setup.py install
开发者可下载开源数据集 (如Cityscapes) 或参考PaddleSeg数据准备文档来自定义语义分割数据集。
本示例使用示例开源数据集 Cityscapes 数据集为例介绍如何对PP-Liteseg-Tiny进行自动压缩。示例数据集仅用于快速跑通自动压缩流程,并不能复现出 benckmark 表中的压缩效果。下载链接
准备好数据后,需要放入到deploy/slim/act/data/cityscapes
目录下。
cd PaddleSeg/
wget https://paddleseg.bj.bcebos.com/dygraph/cityscapes/pp_liteseg_stdc1_cityscapes_1024x512_scale1.0_160k/model.pdparams
python tools/export.py --config configs/pp_liteseg/pp_liteseg_stdc1_cityscapes_1024x512_scale0.5_160k.yml --model_path model.pdparams --save_dir ppliteseg_tiny_scale1.0_export
model.pdmodel
和 model.pdiparams
两个,带pdmodel
的是模型文件,带pdiparams
后缀的是权重文件。自动压缩示例通过run_seg.py脚本启动,会使用接口 paddleslim.auto_compression.AutoCompression
对模型进行自动压缩。首先要配置config文件中模型路径、数据集路径、蒸馏、量化、稀疏化和训练等部分的参数,配置完成后便可对模型进行非结构化稀疏、蒸馏和量化、蒸馏。
# 单卡启动
export CUDA_VISIBLE_DEVICES=0
cd PaddleSeg/deploy/slim/act/
python run_seg.py \
--act_config_path='./configs/ppliteseg/ppliteseg_qat.yaml' \
--save_dir='./save_quant_model_qat' \
--config_path="configs/datasets/pp_liteseg_1.0_data.yml"
# 多卡启动
export CUDA_VISIBLE_DEVICES=0,1
cd PaddleSeg/deploy/slim/act/
python -m paddle.distributed.launch run_seg.py \
--act_config_path='./configs/ppliteseg/ppliteseg_qat.yaml' \
--save_dir='./save_quant_model_qat' \
--config_path="configs/datasets/pp_liteseg_1.0_data.yml"
压缩完成后会在save_dir
中产出压缩好的预测模型,可直接预测部署。
输出的量化模型也是静态图模型,静态图模型在GPU上可以使用TensorRT进行加速,在CPU上可以使用MKLDNN进行加速。预测可以参考预测文档。
TensorRT预测环境配置:
WITH_TRT=ON
的Paddle,上述paddle下载的2.5满足打开TensorRT编译的要求。以下字段用于配置预测参数:
参数名 | 含义 |
---|---|
model_path | inference 模型文件所在目录,该目录下需要有文件 .pdmodel 和 .pdiparams 两个文件 |
model_filename | inference_model_dir文件夹下的模型文件名称 |
params_filename | inference_model_dir文件夹下的参数文件名称 |
dataset | 选择数据集的类型,可选:human , cityscapes , ade 。 |
dataset_config | 数据集配置的config |
image_file | 待测试单张图片的路径,如果设置image_file,则dataset_config将无效。 |
device | 预测时的设备,可选:CPU , GPU 。 |
use_trt | 是否使用 TesorRT 预测引擎,在device为GPU 时生效。 |
use_mkldnn | 是否启用MKL-DNN 加速库,注意use_mkldnn ,在device为CPU 时生效。 |
cpu_threads | CPU预测时,使用CPU线程数量,默认10 |
precision | 预测时精度,可选:fp32 , fp16 , int8 。 |
准备好预测模型,并且修改dataset_config中数据集路径为正确的路径后,启动测试:
cd PaddleSeg/deploy/slim/act/
python test_seg.py \
--model_path=save_quant_model_qat \
--dataset='cityscapes' \
--config="configs/datasets/pp_liteseg_1.0_data.yml" \
--precision=int8 \
--use_trt=True
预期结果:
cd PaddleSeg/deploy/slim/act/
python test_seg.py \
--model_path=ppliteseg_tiny_scale1.0_export/ \
--dataset='cityscapes' \
--config="configs/datasets/pp_liteseg_1.0_data.yml" \
--precision=fp32 \
--use_trt=True
预期结果:
cd PaddleSeg/deploy/slim/act/
python test_seg.py \
--model_path=save_quant_model_qat \
--dataset='cityscapes' \
--config="configs/datasets/pp_liteseg_1.0_data.yml" \
--device=CPU \
--use_mkldnn=True \
--precision=int8 \
--cpu_threads=10
wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png
cd PaddleSeg/deploy/slim/act/
python test_seg.py \
--model_path=ppliteseg_tiny_scale1.0_export \
--dataset='cityscapes' \
--image_file=cityscapes_demo.png \
--use_trt=True \
--precision=fp32 \
--save_file res_qat_fp32.png
预期结果:
cd PaddleSeg/deploy/slim/act/
wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png
python test_seg.py \
--model_path=save_quant_model_qat \
--dataset='cityscapes' \
--image_file=cityscapes_demo.png \
--use_trt=True \
--precision=int8 \
--save_file res_qat_int8.png
预期结果:
原始图片 |
|
FP32推理结果 |
|
Int8推理结果 |
|
A:去除Paddleslim中requirements.txt的opencv版本限制后重新安装。
A:蒸馏配置中的node需要设置成网络的输出节点。
A:去除量化训练的输出结果,重新运行一次,这是由于网络训练到局部极值点导致。
A:参考TensorRT安装说明,查看是否有版本不匹配或者路径没有配置。
A 需要安装paddleslim 2.5,其适配了paddle2.5
A: 需要安装paddleseg devleop版本,如果确定已经安装,建议使用pip uninstall paddleseg
卸载后重新安装。
A:CPU推理精度下降通常是由于推理过程中量化的op设置问题导致的,请确保推理过程中量化的op和训练过程中量化的op一致,才能保证推理精度和训练精度对齐。以本文的PP-Liteseg
为例进行说明:
量化训练配置文件是configs/ppliteseg/ppliteseg_qat.yaml
,其中量化的op是conv2d
和depthwise_conv2d
,因此在推理过程中也需要量化这两个op,可以通过使用如下函数进行设置:
# deploy/slim/act/test_seg.py:64
pred_cfg.enable_mkldnn_int8({
"conv2d", "depthwise_conv2d"
})
而且最好只量化这两个op,如果增加其他op的量化,可能会导致精度下降。以下是一个简单的实验结果:
原模型fp32推理 | 原模型fp32+mkldnn加速 | 量化模型int8推理(量化conv2d,depthwise_conv2d) | 量化模型int8推理(量化conv2d,depthwise_conv2d,elementwise_mul) | 量化模型int8推理(量化conv2d,depthwise_conv2d,elementwise_mul,pool2d) | |
---|---|---|---|---|---|
mIoU | 0.7704 | 0.7704 | 0.7658 | 0.7657 | 0.7372 |
耗时(ms) | 1216.8 | 1191.3 | 434.5 | 439.6 | 505.8 |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。