我们在这里列出了使用时的一些常见问题及其相应的解决方案。 如果您发现有一些问题被遗漏,请随时提 PR 丰富这个列表。 如果您无法在此获得帮助,请使用 issue 模板创建问题,但是请在模板中填写所有必填信息,这有助于我们更快定位问题。
兼容的 MMSegmentation 和 MMCV 版本如下。请安装正确版本的 MMCV 以避免安装问题。
MMSegmentation version | MMCV version | MMEngine version | MMClassification (optional) version | MMDetection (optional) version |
---|---|---|---|---|
dev-1.x branch | mmcv >= 2.0.0rc4 | MMEngine >= 0.7.1 | mmcls==1.0.0rc6 | mmdet >= 3.0.0 |
main branch | mmcv >= 2.0.0rc4 | MMEngine >= 0.7.1 | mmcls==1.0.0rc6 | mmdet >= 3.0.0 |
1.0.0 | mmcv >= 2.0.0rc4 | MMEngine >= 0.7.1 | mmcls==1.0.0rc6 | mmdet >= 3.0.0 |
1.0.0rc6 | mmcv >= 2.0.0rc4 | MMEngine >= 0.5.0 | mmcls>=1.0.0rc0 | mmdet >= 3.0.0rc6 |
1.0.0rc5 | mmcv >= 2.0.0rc4 | MMEngine >= 0.2.0 | mmcls>=1.0.0rc0 | mmdet>=3.0.0rc6 |
1.0.0rc4 | mmcv == 2.0.0rc3 | MMEngine >= 0.1.0 | mmcls>=1.0.0rc0 | mmdet>=3.0.0rc4, <=3.0.0rc5 |
1.0.0rc3 | mmcv == 2.0.0rc3 | MMEngine >= 0.1.0 | mmcls>=1.0.0rc0 | mmdet>=3.0.0rc4, <=3.0.0rc5 |
1.0.0rc2 | mmcv == 2.0.0rc3 | MMEngine >= 0.1.0 | mmcls>=1.0.0rc0 | mmdet>=3.0.0rc4, <=3.0.0rc5 |
1.0.0rc1 | mmcv >= 2.0.0rc1, <=2.0.0rc3> | MMEngine >= 0.1.0 | mmcls>=1.0.0rc0 | Not required |
1.0.0rc0 | mmcv >= 2.0.0rc1, <=2.0.0rc3> | MMEngine >= 0.1.0 | mmcls>=1.0.0rc0 | Not required |
如果您已经安装了版本不合适的 mmcv,请先运行pip uninstall mmcv
卸载已安装的 mmcv,如您先前安装的为 mmcv-full(存在于 OpenMMLab 1.x),请运行pip uninstall mmcv-full
进行卸载。
pip uninstall mmcv
卸载环境中现有的 mmcv配置文件命名风格
部分。比如,对于名字为segformer_mit-b0_8xb1-160k_cityscapes-1024x1024.py
的 config 文件,8xb1
代表训练其对应的模型需要的卡数为 8,每张卡中的 batch size 为 1。nGPU
,在nGPU
后的数字个数即训练时所需的卡数。比如,在 log 文件中搜索nGPU
得到nGPU 0,1,2,3,4,5,6,7
的记录,则说明训练该模型需要使用八张卡。简单来说,这是一个提高准确率的深度监督技术。在训练阶段,decode_head
用于输出语义分割的结果,auxiliary_head
只是增加了一个辅助损失,其产生的分割结果对你的模型结果没有影响,仅在在训练中起作用。您可以阅读这篇论文了解更多信息。
在测试脚本中,我们提供了--out
参数来控制是否输出保存预测的分割掩膜图像。您可以运行以下命令输出测试结果:
python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} --out ${OUTPUT_DIR}
更多用例细节可查阅文档,PR #2712 以及迁移文档了解相关说明。
MMSegmentation 使用 num_classes
和 out_channels
来控制模型最后一层 self.conv_seg
的输出。更多细节可以参考 这里。
num_classes
应该和数据集本身类别个数一致,当是二值分割时,数据集只有前景和背景两类,所以 num_classes
为 2. out_channels
控制模型最后一层的输出的通道数,通常和 num_classes
相等,但当二值分割时候,可以有两种处理方法, 分别是:
设置 out_channels=2
,在训练时以 Cross Entropy Loss 作为损失函数,在推理时使用 F.softmax()
归一化 logits 值,然后通过 argmax()
得到每个像素的预测结果。
设置 out_channels=1
,在训练时以 Binary Cross Entropy Loss 作为损失函数,在推理时使用 F.sigmoid()
和 threshold
得到预测结果,threshold
默认为 0.3。
对于实现上述两种计算二值分割的方法,需要在 decode_head
和 auxiliary_head
的配置里修改。下面是对样例 pspnet_unet_s5-d16.py 做出的对应修改。
num_classes=2
, out_channels=2
并在 CrossEntropyLoss
里面设置 use_sigmoid=False
。decode_head=dict(
type='PSPHead',
in_channels=64,
in_index=4,
num_classes=2,
out_channels=2,
loss_decode=dict(
type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0)),
auxiliary_head=dict(
type='FCNHead',
in_channels=128,
in_index=3,
num_classes=2,
out_channels=2,
loss_decode=dict(
type='CrossEntropyLoss', use_sigmoid=False, loss_weight=0.4)),
num_classes=2
, out_channels=1
并在 CrossEntropyLoss
里面设置 use_sigmoid=True
.decode_head=dict(
type='PSPHead',
in_channels=64,
in_index=4,
num_classes=2,
out_channels=1,
loss_decode=dict(
type='CrossEntropyLoss', use_sigmoid=True, loss_weight=1.0)),
auxiliary_head=dict(
type='FCNHead',
in_channels=128,
in_index=3,
num_classes=2,
out_channels=1,
loss_decode=dict(
type='CrossEntropyLoss', use_sigmoid=True, loss_weight=0.4)),
reduce_zero_label
的作用数据集中 reduce_zero_label
参数类型为布尔类型,默认为 False,它的功能是为了忽略数据集 label 0。具体做法是将 label 0 改为 255,其余 label 相应编号减 1,同时 decode head 里将 255 设为 ignore index,即不参与 loss 计算。
以下是 reduce_zero_label
具体实现逻辑:
if self.reduce_zero_label:
# avoid using underflow conversion
gt_semantic_seg[gt_semantic_seg == 0] = 255
gt_semantic_seg = gt_semantic_seg - 1
gt_semantic_seg[gt_semantic_seg == 254] = 255
关于您的数据集是否需要使用 reduce_zero_label,有以下两类情况:
reduce_zero_label=True
。如果使用的是没有黑色边缘的标签,那么 mask label 中只有 0-5,此时就应该使reduce_zero_label=False
。需要结合您的实际情况来使用。reduce_zero_label
的,此时在数据集中应该将其设置为reduce_zero_label=False
注意: 使用 reduce_zero_label
请确认数据集原始类别个数,如果只有两类,需要关闭 reduce_zero_label
即设置 reduce_zero_label=False
。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。