模型方面采用的是efficientnet-b5,在原始b5模型中增加了cbam注意力模块,数据增强方面使用了随机裁切、翻转、auto_augment、随机擦除以及cutmix, 损失函数采用CrossEntropyLabelSmooth,训练策略方面采用了快照集成(snapshot)思想。
第一阶段训练,图像输入尺寸为465,使用LabelSmooth和cutmix,采用带学习率自动重启的CosineAnnealingWarmRestarts方法,获得5个模型快照,选择val_acc最高的模型,作为第一阶段的训练结果。
运行指令为 !python train.py
第二阶段训练,图像输入尺寸为465,适当调整随机裁切和随机擦除的参数,增加weight_decay,在第一阶段模型的基础上训练获得5个模型快照,选择val_acc最高的模型,作为第二阶段的训练结果。
运行指令为 !python train.py --batch_size=10 --lr=5e-5 --image_size=456\
--weight_decay=1e-4 --resize_scale=0.6 --erasing_prob=0.3 \
--epochs=100 --num_class=20 --model_path='checkpoint/best_model_456.pth'
第三阶段训练,图像输入尺寸为465,关闭cutmix,损失函数采用CrossEntropyLoss,在第二阶段模型的基础上训练获得5个模型快照,选择val_acc最高的模型,作为最终的训练结果。
运行指令为 !python train.py --batch_size=10 --lr=1e-6 --image_size=456\
--weight_decay=1e-4 --resize_scale=0.6 --erasing_prob=0.3 --cutmix\
--label_smooth --epochs=100 --num_class=20 --model_path='checkpoint/best_model_456.pth'
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。