.. toctree:: :maxdepth: 1 :hidden: error_analyze custom_debug mindir dump pynative_debug pynative fixing_randomness
本章节用于介绍MindSpore为神经网络开发者和框架开发者提供的多种功能调试能力,功能调试指开发者在开发神经网络或者框架功能过程中的调试能力,与功能实现后的性能、精度的调试调优有所区别。从不同的使用目的将功能调试分为网络开发调试与框架开发调试,网络开发调试用于满足网络开发者(也被称为用户)完成神经网络开发过程中的错误调试、控制与观察网络执行的调试诉求,框架开发调试用于满足框架开发者的调试诉求。
网络开发调试与框架开发调试仅是从更适用的角度进行区分,并非严格的功能划分,网络开发者也可以使用框架开发调试功能进行问题调试,反之亦然。
网络报错调试是解决网络训练或推理过程中出现的报错问题。通过理解报错信息的含义,假设问题的原因,并利用调试方法验证假设。网络报错调试通常是多次假设与验证的循环的过程。网络报错调试包括报错分析和调试定位两个部分。报错分析是获取报错内容,理解报错描述并分析原因的过程,主要包括信息归纳、错误分析以及错误检索;调试定位是针对问题场景,选择合适的调试策略,对报错问题的假设进行验证的过程,主要包括策略选择,故障复现,以及调试验证。如图1所示。
图 1
报错分析是获取报错内容,理解报错描述并分析原因的过程。
进行网络报错调试的第一步是进行信息归纳,这里的信息归纳是指将获取到的各种信息进行归类整理并理解信息含义,为进行错误分析提供依据。一般在错误发生时需要获取几类信息:
理解错误描述信息含义,对问题分析有着重要作用,如下将介绍如何阅读与理解MindSpore的报错信息。
MindSpore报错信息采用Python Traceback处理,包括Python堆栈信息、报错类型与报错描述、与网络开发者相关的报错信息以及与框架开发者相关的报错信息。如图2所示。
图 2
Python堆栈信息:
如图中①所示,从上往下可以看出Python堆栈调用关系。
报错类型和报错描述:
如图中②所示,报错类型为TypeError
参数类型错误
,报错描述即为出错原因,函数参数个数不对,输入参数个数要求为2,但是实际提供的参数个数为3。
与网络开发者相关的报错信息
如图中③所示,包含The Traceback of Net Construct Code
和与网络开发者相关的其他报错信息。其中,The Traceback of Net Construct Code
是C++后端编译报错位置映射到Python前端的代码调用栈,倒序打印,对应神经网络中construct
函数或者@ms_function
装饰器修饰的函数。
与框架开发者相关的报错信息
如图中④所示,包含C++堆栈信息和与框架开发者相关的其他报错信息,以For framework developers
标识。可以设置环境变量export MS_EXCEPTION_DISPLAY_LEVEL=1
隐藏与框架开发者相关的报错信息。该环境变量默认值为0,表示默认显示与框架开发者相关的报错信息。
进行错误分析是网络报错调试的重要步骤。错误分析是指基于获取到的网络、框架各种信息(例如:错误信息、网络代码等信息)进行错误原因分析,推断错误的可能原因。
MindSpore网络训练的一般过程是数据加载与处理,网络构建与训练。在分布式并行场景下,还包括分布式并行模式配置。网络报错的错误分析通常包括如下步骤:
具体如何基于不同场景进行错误分析请参考错误分析。
基于报错信息和报错代码位置,结合不同场景下常见报错及可能原因,一般可以解决常见的参数配置错误,API接口使用错误,静态图语法错误等问题。对于较复杂的报错分析,可以首先尝试搜索案例。当然,为提高解决问题效率,遇到报错问题时,可直接进行错误搜索。
FAQ
MindSpore提供常见报错问题FAQ,包括数据处理、编译执行、分布式并行等场景。可根据错误分析中得出的问题场景,使用报错描述信息进行问题搜索。
例如,在网络编译报错场景下,出现报错内容:“Shape Join Failed”,搜索结果如图3所示。
图 3
搜索地址:FAQ。
报错案例
为覆盖更多报错场景,提高用户解决问题能力,在华为云论坛MindSpore提供常见的典型报错案例,介绍报错分析与解决方法。错误搜索的前提是选择合适的搜索关键字。通常,搜索关键字在错误信息中的报错类型和报错描述部分中进行选择。通常在云论坛进行搜索时,可以使用主语+谓语+宾语、动词+宾语、主语+系动词+表语等结构进行搜索。例如,有如下报错信息:
Unexpected error. Invalid file, DB file can not match file
Exceed function call depth limit 1000, (function call depth: 1001, simulate call depth: 997).
'self.val' should be initialized as a 'Parameter' type
可以选择“DB file can not match file”,“Exceed function call depth limit”,“should be initialized as a Parameter” 作为关键词。
搜索地址:报错案例。
社区Issue
此外,MindSpore开源社区有很多开发者反馈的问题单,涉及网络开发报错、框架故障等多种问题。用户可以使用例如网络名称、报错内容关键字进行搜索相似问题。关键字选择可参考报错案例。
搜索地址:MindSpore Issues。
静转动调试策略
动态图模式是更好的调试执行模式。
设置动态图模式方式:set_context(mode=mindspore.PYNATIVE_MODE)
。
动态图模式下程序按照代码的编写顺序逐行执行,避免静态图模式下的前后端编译优化,保证了用户代码与执行逻辑统一。其次,动态图逐行代码执行,避免图模式下整图下沉的黑盒执行,更方便打印执行结果,跟踪执行过程。
异步转同步调试策略
动态图模式为提高动态图执行效率,默认使用异步执行方式,错误信息在执行的最后阶段显示。在图3中可以看到异步执行方式报错信息会有告警信息,对报错分析造成干扰。
MindSpore提供切换同步执行的方法,通过设置set_context(mode=mindspore.PYNATIVE_MODE, pynative_synchronize=True)
切换到同步方式执行,如果算子执行错误时,任务直接终止并显示当前错误信息。具体内容可参考PyNative同步执行。
二分法策略
简化问题场景是提高调试效率的有效方法,根据报错信息,通常能够确认报错问题的范围,排除不必要的影响因素是可靠的方法。在报错范围不能准确判断的情况下,可采用二分法进行尝试。例如,网络计算过程包含nan值,此时可利用二分法分别调试数据处理模块与网络计算模块,验证网络计算输入的数据是否包含nan值,确认异常值是数据引入还是计算过程中产生。
演绎推理策略
演绎推理是根据问题推断原因并进一步验证得出结论的过程,MindSpore的报错调试即是根据问题传播的因果链条逐步反向推理,定位问题出的根本原因。例如,MindSpore算子执行报错问题,其直接原因是算子的输入数据含有非法值,而非法值是有前一个算子的计算得出,此时需要分析前一个算子的输入数据和计算过程是否正确。如果前一个算子的计算过程存在问题,即确认了问题范围,如果前一个算子的输入数据也存在非法值,则需要继续分析前面的算子,直到找到问题的根源。
问题稳定复现是网络调试的前提,也是验证问题是否彻底解决的条件。网络训练过程因随机初始化网络参数、不同的输入数据等引入随机性,容易造成运行结果或报错位置不一致。MindSpore提供固定随机性的思路与方法,详情请参考固定随机性。
动态图调试
由于逐行代码执行的特点,可以使用调试工具pdb进行单步调试、断点调试及过程跟踪。 调试步骤:
具体内容请参考PyNative调试。
静态图调试
ops.Print算子
静态图模式下,MindSpore提供ops.Print算子,用于打印计算图中Tensor信息或字符串信息。
class PrintDemo(nn.Cell):
def __init__(self):
super(PrintDemo, self).__init__()
self.print = ops.Print()
def construct(self, x, y):
self.print('print Tensor x and Tensor y:', x, y)
return x
x = Tensor(np.ones([2, 1]).astype(np.int32))
y = Tensor(np.ones([2, 2]).astype(np.int32))
net = PrintDemo()
output = net(x, y)
调试器
计算图执行阶段报错可以使用Debugger调试工具。使用调试器,可以做到以下几点:
具体使用方法参考:可视化调试器。
网络执行调试是MindSpore为满足网络开发者对网络执行过程的观测与执行控制诉求提供了相应的调试能力,可分为网络执行观测与网络执行控制。
功能分类 | 主要调试功能 | 用途说明 | 详细介绍 |
---|---|---|---|
执行观测 | 训练过程可视 | 将训练过程中的标量、图像、计算图、训练优化过程以及模型超参等信息记录到文件中,通过MindInsight可视化界面供用户查看,包含:标量可视化、参数分布图可视化、计算图可视化、数据图可视化、图像可视化、张量可视化和优化过程可视化等。 | 收集Summary数据 |
训练溯源及对比 | 提供了模型溯源、数据溯源和对比看板,通过对比看板可以观察不同标量趋势图以发现问题,再使用溯源功能定位问题原因,给用户在数据增强和深度神经网络中提供高效调优的能力。 | 查看溯源和对比看板 | |
metrics | 当训练结束后,可以使用metrics评估训练结果的好坏。提供了多种metrics评估指标,如:accuracy、loss、precision、recall、F1 | MindSporemetrics功能介绍 | |
Print算子 | Print算子可以将用户输入的Tensor或字符串信息打印出来。 | Print算子功能介绍 | |
中间文件保存 | 用于保存图编译过程中生成的中间文件,我们称为IR文件,用于支持与图结构、图信息相关的问题诊断。 | 查看中间文件 | |
数据Dump | 训练网络时,若训练结果和预期有偏差,通过Dump功能保存算子输入输出数据进行调试。 | Dump功能调试 | |
执行控制 | Callback | 用户可以使用回调函数在特定时期执行特定动作或观察训练过程中网络信息,例如:保存模型参数、监控loss、动态调整参数、提前终止训练任务等。 | 回调机制 Callback |
Hook | 在pynative模式使用Hook功能可以捕获中间层算子的输入、输出数据以及反向梯度。已提供了四种形式的Hook功能,分别为:HookBackward算子和在Cell对象上进行注册的register_forward_pre_hook、register_forward_hook、register_backward_hook功能。 | Hook功能 | |
同步执行 | 在动态图模式下,为了提升性能,算子在device上使用了异步执行方式,因此算子执行错误可能会在程序执行最后才显示。针对这种情况,MindSpore提供了同步执行的设置来控制算子在device上是否使用异步执行。 | 动态图同步执行 |
MindSpore为框架开发者提供了丰富的调试手段,调试功能涵盖了框架的执行过程、框架的执行数据、框架的专项控制,例如:通过日志可以记录框架的执行流程、通过RDR可以记录框架关键的状态信息、内存复用控制等。
功能分类 | 主要调试功能 | 用途说明 | 详细介绍 |
---|---|---|---|
过程记录 | 日志 | 用于记录框架的执行各个阶段的信息,为了解框架执行过程或者进行问题诊断提供信息。 | 日志相关的环境变量和配置 |
数据记录 | RDR | Running DataRecorder(RDR)提供训练程序运行时记录框架执行状态数据的功能。框架运行异常会自动地导出预先记录的数据以辅助定位运行异常的原因,也可以在框架正常执行过程保存框架关键状态数据,例如:IR、图执行顺序、内存分配等信息。 | Running Data Recorder |
专项控制 | 内存复用 | 可配置内存复用的开启与关闭,用于排查或调试怀疑与内存复用相关的问题。 | 内存复用 |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。