三维人体姿态估计的目标是在三维空间中定位单个或多个人体的语义关键点,使得模型能够理解人类行为,进行人机交互。3DMPPE-ROOTNET是一个三维多人姿态估计的通用框架,在几个公开可用的3D单人和多人姿态估计数据集上都取得了最好的水平。
参考实现:
url=https://github.com/mks0601/3DMPPE_ROOTNET_RELEASE
branch=master
commit_id=a199d50be5b0a9ba348679ad4d010130535a631d
输入数据
输入数据 | 大小 | 数据类型 | 数据排布格式 |
---|---|---|---|
input1 | batchsize x 3 x 224 x 224 | RGB | NCHW |
input2 | batchsize x 1 | FLOAT32 | ND |
输出数据
输出数据 | 大小 | 数据类型 | 数据排布格式 |
---|---|---|---|
output | batchsize x 3 | FLOAT32 | ND |
该模型需要以下插件与驱动
表 1 版本配套表
配套 | 版本 | 环境准备指导 |
---|---|---|
固件与驱动 | 1.0.16(NPU驱动固件版本为5.1.RC2) | Pytorch框架推理环境准备 |
CANN | 5.1.RC2 | - |
Python | 3.7.5 | - |
获取源码。
源码目录结构:
├── 3DMPPE-ROOTNET_postprocess.py //模型后处理脚本
├── 3DMPPE-ROOTNET_preprocess.py //模型前处理脚本
├── 3DMPPE-ROOTNET_pth2onnx.py //用于转换pth文件到onnx文件
├── 3DMPPE-ROOTNET.patch //用于修改开源模型代码的文件
├── modelzoo_level.txt //模型精度性能结果
├── requirements.txt //依赖库和版本号
├── LICENSE //Apache LICENCE
├── README.md //模型离线推理说明README
获取开源代码仓。 在已下载的源码包根目录下,执行如下命令。
git clone https://github.com/mks0601/3DMPPE_ROOTNET_RELEASE.git
cd 3DMPPE_ROOTNET_RELEASE
patch -p1 < ../3DMPPE_ROOTNET.patch
cd ..
安装依赖。
pip install -r requirements.txt
获取原始数据集。(解压命令参考tar –xvf *.tar与 unzip *.zip)
本模型基于MuPoTS数据集推理,MuPoTS是一个多人三维人体姿态估计数据集,由超过8000帧来自20个真实场景,最多3个对象组成。 请用户自行获取MuPoTS数据集并解压,自行获取数据集对应的annotation文件。存放到新建的MuPoTS文件夹内。上传MuPoTS文件夹到服务器任意目录并解压(如:/root/datasets/) 数据目录结构请参考:
├──MuPoTS
├──MultiPersonTestSet
├──MuPoTS-3D.json
数据预处理。
数据预处理将原始数据集转换为模型输入的数据。 执行3DMPPE-ROOTNET_preprocess.py脚本,完成预处理。
python 3DMPPE-ROOTNET_preprocess.py --img_path=./MuPoTS/MultiPersonTestSet --ann_path=./MuPoTS/MuPoTS-3D.json --save_path_image=data_image_bs1 --save_path_cam=data_cam_bs1 --inference_batch_siz=1
每个图像对应生成一个二进制文件。运行成功后,在当前目录下生成“data_cam_bs1”和“data_image_bs1”二进制文件夹。
模型转换。
使用PyTorch将模型权重文件.pth转换为.onnx文件,再使用ATC工具将.onnx文件转为离线推理模型文件.om文件。
获取权重文件 snapshot_6.pth.tar。
导出onnx文件。
使用“snapshot_6.pth.tar”导出onnx文件。
运行“3DMPPE-ROOTNET_pth2onnx.py”脚本。
python 3DMPPE-ROOTNET_pth2onnx.py snapshot_6.pth.tar 3DMPPE-ROOTNET.onnx
参数说明:
获得“3DMPPE-ROOTNET.onnx”文件。
使用ATC工具将ONNX模型转OM模型。
配置环境变量。
source /usr/local/Ascend/ascend-toolkit/set_env.sh
说明: 该脚本中环境变量仅供参考,请以实际安装环境配置环境变量。详细介绍请参见《CANN 开发辅助工具指南 (推理)》。
执行命令查看芯片名称(${chip_name})。
npu-smi info
#该设备芯片名为Ascend310P3
回显如下:
+-------------------+-----------------+------------------------------------------------------+
| NPU Name | Health | Power(W) Temp(C) Hugepages-Usage(page) |
| Chip Device | Bus-Id | AICore(%) Memory-Usage(MB) |
+===================+=================+======================================================+
| 0 310P3 | OK | 17.6 57 0 / 0 |
| 0 0 | 0000:3B:00.0 | 0 936 / 21534 |
+===================+=================+======================================================+
执行ATC命令。
atc --framework=5 --model=3DMPPE-ROOTNET.onnx --output=3DMPPE-ROOTNET_bs1 --input_format=NCHW --input_shape="image:1,3,256,256;cam_param:1,1" --log=error --soc_version=${chip_name}
参数说明:
运行成功后生成“3DMPPE-ROOTNET _bs1.om”模型文件。
开始推理验证。
安装ais_bench推理工具。ais_bench推理工具获取及使用方式请点击查看 ais_bench 推理工具使用文档。
创建输出的文件夹。
mkdir out_bs1
执行推理。
执行命令
python -m ais_bench --device 0 --batchsize 1 --model 3DMPPE-ROOTNET_bs1.om --input "data_image_bs1,data_cam_bs1" --output out_bs1
参数说明:
推理结果保存在out_bs1下面,并且也会输出性能数据。
精度验证。
运行后处理脚本“3DMPPE-ROOTNET _postprocess.py”。
python 3DMPPE-ROOTNET_postprocess.py --img_path=MuPoTS/MultiPersonTestSet --ann_path=MuPoTS/MuPoTS-3D.json --input_path=out_bs1 --result_file=result_bs1
性能验证。
可使用ais_bench推理工具的纯推理模式验证不同batch_size的om模型的性能,参考命令如下:
python -m ais_bench --model=${om_model_path} --loop=20 --batchsize=${batch_size}
芯片型号 | Batch Size | 数据集 | 精度 | 性能 |
---|---|---|---|---|
300I PRO | 1 | MuPoTS | 0.3181 | 900.384 |
300I PRO | 4 | MuPoTS | 0.3181 | 1565.36 |
300I PRO | 8 | MuPoTS | 0.3181 | 1420.831 |
300I PRO | 16 | MuPoTS | 0.3179 | 1311.963 |
300I PRO | 32 | MuPoTS | 0.3175 | 1300.503 |
300I PRO | 64 | MuPoTS | 0.3175 | 1009.593 |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。