执行在线推理时发现此报错:LLVM ERROR: out of memory,具体报错信息如下图所示:
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。
Please add labels , also you can visit https://gitee.com/ascend/community/blob/master/labels.md to find more.
为了让代码尽快被审核,请您为Issue打上标签,打上标签的Issue可以直接推送给责任人进行审核。
更多的标签可以查看https://gitee.com/ascend/community/blob/master/labels.md
以模型训练相关代码提交为例,如果你提交的是模型训练代码,你可以这样评论:
//train/model
另外你还可以给这个Issue标记类型,例如是bugfix或者是特性需求:
//kind/bug or //kind/feature
恭喜你,你已经学会了使用命令来打标签,接下来就在下面的评论里打上标签吧!
你好,使用的什么框架跑的在线推理,它的版本号是多少,如何操作的以及相应日志麻烦提供下
使用的是直接拉取的docker镜像pytorch-modelzoo-22.0.RC3-1.8.1
用django封装了一个接口接收文本并做在线推理,django版本3.1.14
试了几次请求,前几次推理没有问题,到某一次突然报错
补充:报错的请求又用相同的样本单独试了一次,这回没有报错,感觉和输入文本无关;试了上一篇推理未完成时发送新的推理请求,果然报错了,是不支持同时处理多个请求吗?
请问这种情况是否有解决方案呢?
登录 后才可以发表评论