代码拉取完成,页面将自动刷新
├── AclNNInvocation //通过aclnn调用的方式调用AddCustom算子
│ ├── inc // 头文件目录
│ │ ├── common.h // 声明公共方法类,用于读取二进制文件
│ │ ├── op_runner.h // 算子描述声明文件,包含算子输入/输出,算子类型以及输入描述与输出描述
│ │ └── operator_desc.h // 算子运行相关信息声明文件,包含算子输入/输出个数,输入/输出大小等
│ ├── input // 存放脚本生成的输入数据目录
│ ├── output // 存放算子运行输出数据和真实数据的目录
│ ├── scripts
│ │ ├── acl.json // acl配置文件
│ │ ├── gen_data.py // 输入数据和真值数据生成脚本
│ │ └── verify_result.py // 真值对比文件
│ ├── src
│ │ ├── CMakeLists.txt // 编译规则文件
│ │ ├── common.cpp // 公共函数,读取二进制文件函数的实现文件
│ │ ├── main.cpp // 单算子调用应用的入口
│ │ ├── op_runner.cpp // 单算子调用主体流程实现文件
│ │ └── operator_desc.cpp // 构造算子的输入与输出描述
│ └── run.sh // 执行命令脚本
完成自定义算子的开发部署后,可以通过单算子调用的方式来验证单算子的功能。src/main.cpp代码为单算子API执行方式。单算子API执行是基于C语言的API执行算子,无需提供单算子描述文件进行离线模型的转换,直接调用单算子API接口。
自定义算子编译部署后,会自动生成单算子API,可以直接在应用程序中调用。算子API的形式一般定义为“两段式接口”,形如:
// 获取算子使用的workspace空间大小
aclnnStatus aclnnAddCustomGetWorkspaceSize(const aclTensor *x, const aclTensor *y, const alcTensor *out, uint64_t workspaceSize, aclOpExecutor **executor);
// 执行算子
aclnnStatus aclnnAddCustom(void *workspace, int64_t workspaceSize, aclOpExecutor **executor, aclrtStream stream);
其中aclnnAddCustomGetWorkspaceSize为第一段接口,主要用于计算本次API调用计算过程中需要多少的workspace内存。获取到本次API计算需要的workspace大小之后,按照workspaceSize大小申请Device侧内存,然后调用第二段接口aclnnAddCustom执行计算。具体参考AscendCL单算子调用>单算子API执行 章节。
运行此样例前,请参考编译算子工程完成前期准备。
进入到样例目录
cd ${git_clone_path}/samples/operator/AddCustomSample/FrameworkLaunch/AclNNInvocation
样例执行
样例执行过程中会自动生成测试数据,然后编译与运行aclnn样例,最后检验运行结果。具体过程可参见run.sh脚本。
bash run.sh
时间 | 更新事项 |
---|---|
2024/05/22 | 新增本readme |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。