代码拉取完成,页面将自动刷新
同步操作将从 PaddlePaddle/FastDeploy 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
English | 简体中文
FastDeploy已支持部署量化模型,并提供一键模型自动化压缩的工具. 用户可以使用一键模型自动化压缩工具,自行对模型量化后部署, 也可以直接下载FastDeploy提供的量化模型进行部署.
FastDeploy 提供了一键模型自动化压缩工具, 能够简单地通过输入一个配置文件, 对模型进行量化. 详细教程请见: 一键模型自动化压缩工具
用户也可以直接下载下表中的量化模型进行部署.(点击模型名字即可下载)
Benchmark表格说明:
模型 | 推理后端 | 部署硬件 | FP32 Runtime时延 | INT8 Runtime时延 | INT8 + FP16 Runtime时延 | INT8+FP16+PM Runtime时延 | 最大加速比 | FP32 mAP | INT8 mAP | 量化方式 |
---|---|---|---|---|---|---|---|---|---|---|
YOLOv6s | TensorRT | GPU | 9.47 | 3.23 | 4.09 | 2.81 | 3.37 | 42.5 | 40.7 | 量化蒸馏训练 |
YOLOv6s | Paddle-TensorRT | GPU | 9.31 | None | 4.17 | 2.95 | 3.16 | 42.5 | 40.7 | 量化蒸馏训练 |
YOLOv6s | ONNX Runtime | CPU | 334.65 | 126.38 | None | None | 2.65 | 42.5 | 36.8 | 量化蒸馏训练 |
YOLOv6s | Paddle Inference | CPU | 352.87 | 123.12 | None | None | 2.87 | 42.5 | 40.8 | 量化蒸馏训练 |
模型 | 推理后端 | 部署硬件 | FP32 End2End时延 | INT8 End2End时延 | INT8 + FP16 End2End时延 | INT8+FP16+PM End2End时延 | 最大加速比 | FP32 mAP | INT8 mAP | 量化方式 |
---|---|---|---|---|---|---|---|---|---|---|
YOLOv6s | TensorRT | GPU | 15.66 | 11.30 | 10.25 | 9.59 | 1.63 | 42.5 | 40.7 | 量化蒸馏训练 |
YOLOv6s | Paddle-TensorRT | GPU | 15.03 | None | 11.36 | 9.32 | 1.61 | 42.5 | 40.7 | 量化蒸馏训练 |
YOLOv6s | ONNX Runtime | CPU | 348.21 | 126.38 | None | None | 2.82 | 42.5 | 36.8 | 量化蒸馏训练 |
YOLOv6s | Paddle Inference | CPU | 352.87 | 121.64 | None | None | 3.04 | 42.5 | 40.8 | 量化蒸馏训练 |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。