代码拉取完成,页面将自动刷新
与以往跟踪器评估工具箱注重与评价跟踪器的整体指标不同,我们的工具箱更侧重于对跟踪器在测试序列上的表现进行分析,方便于研究人员发现跟踪方法存在的缺陷与不足。
我们的工具箱提供了如下功能:
- 评估多个跟踪器在测试数据集的各个挑战上的性能,并输出可视化的结果
- 评估不同跟踪器在每个视频序每一帧上的误差与IOU,可视化并记录这些数据
- 评估不同跟踪器在不同视频序列上的性能,并输出了不同跟踪器在每个视频上的性能对比结果
- 记录每个跟踪器存在跟踪失败情况的视频序列名
- 输出每个跟踪器的可视化跟踪结果
- 加入了可嵌入函数 eval_tracker() 该函数为EvalToolKit工具箱的外置API接口,此函数可以将工具箱嵌入到任意一个代码中
- eval_tracker()位于 RunEval_OTB.py 中
- eval_tracker()使用方法:
eval_tracker(tracker_anno_dir:dir = None, output_dir:str = 'OutPut', useBbox:list = ['all'],outputVisualizationResults = False)
* @description: EvalToolKit工具箱的外置API接口,此函数可以将工具箱嵌入到任意一个代码中
* @param {dir} tracker_anno_dir = None
------------------> {'trackerName' : 'dir'}
------------------> 一个字典存储跟踪器名与跟踪器bbox的键值对
* @param {str} output_dir = None
------------------> 评估结果输出的根目录
* @param {dict} useBbox = None
------------------>useBbox = [] : 只测试 tracker_anno_dir 中的跟踪器
------------------>useBbox = ['all'] : 测试 tracker_anno_dir 中的跟踪器 和 工具箱中所有集成的跟踪器
------------------>useBbox = ['tracker1'...] : 测试 tracker_anno_dir 中的跟踪器 和 useBbox中的跟踪器
* @param {} outputVisualizationResults = False
* @return {}
- 对指标计算方式进行了更新,原本ACC与SUCC的指标计算方法绑定,现在进行了分离
- 指标设置方式:在 ‘GetCfg\setParam.py’文件的 --CalculatingIndexMethod 中设置了一个字典,其中键值‘ACC’对应ACC的计算指标,键值‘SUCC’对应着SUCC的指标
- 对跟踪器的性能指标曲线图图例中的跟踪器进行性能上的排序;
- 对性能指标进行保留小数点后三位的操作;
- 对性能指标图的坐标轴给出了注释.
- 对分析日志的输出进行了优化,将整体性能以表格的形式输入到日志文件中
- 加入统计失败视频个数的表格
note:
- 输出日志文件中若出现表格不对齐情况如图2-1所示:
fig 2-1
- 这是因为显示log文件的字体与系统命令行的字体不一致在,将字体改成consolas即可
gif 2-2 fig 2-3
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。