Ascend Pytorch Profiler中的采集并解析msprof_tx数据功能已经内置了通信算子的打点。为了方便用户在不修改业务代码的基础上获取更多关键阶段的耗时数据,mstx_torch_plugin在Ascend Pytorch Profiler内置了dataloader、forward、step、save_checkpoint这四个关键阶段函数的打点。
暂不支持PyTorch图模式场景使用。
下载mstx_torch_plugin的whl包。
请通过下表链接下载mstx_torch_plugin的whl包。
版本 | 发布日期 | 下载链接 | 校验码 |
---|---|---|---|
1.0 | 2024-12-19 | mstx_torch_plugin-1.0-py3-none-any.whl | 8b3500245ac0ea63f2ada832b1cc67ca8923a86d6081b165a8f62da0a276cbaa |
whl包校验。
根据以上下载链接下载whl包到Linux安装环境。
进入whl包所在目录,执行如下命令。
sha256sum {name}.whl
{name}为whl包名称。
若回显呈现对应版本whl包一致的校验码,则表示下载了正确的性能工具whl安装包。示例如下:
sha256sum mstx_torch_plugin-1.0-py3-none-any.whl
xx *mstx_torch_plugin-1.0-py3-none-any.whl
安装mstx_torch_plugin
pip install mstx_torch_plugin-1.0-py3-none-any.whl
在AI任务执行脚本中import导入该whl包。
需保证import的顺序在import torch和import torch_npu后面:
import torch
import torch_npu
import mstx_torch_plugin
使能torch_npu.profiler,采集打点数据。
打开msprof_tx开关,profiler_level开关可根据实际采集需要,配置对应的level:
import torch
import torch_npu
import mstx_torch_plugin
...
experimental_config = torch_npu.profiler._ExperimentalConfig(
export_type=torch_npu.profiler.ExportType.Text,
profiler_level=torch_npu.profiler.ProfilerLevel.Level_none
)
with torch_npu.profiler.profile(
activities=[
torch_npu.profiler.ProfilerActivity.CPU,
torch_npu.profiler.ProfilerActivity.NPU
],
schedule=torch_npu.profiler.schedule(wait=0, warmup=0, active=1, repeat=1, skip_first=1),
on_trace_ready=torch_npu.profiler.tensorboard_trace_handler("./result"),
experimental_config=experimental_config) as prof:
for step in range(steps):
train_one_step(step, steps, train_loader, model, optimizer, criterion)
prof.step()
采集的性能数据使用MindStudio Insight工具打开,可视化效果如下:
上图以dataloader函数为例,与mstx数据相似,在上层应用数据中展示。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。