# yolov5_learning
**Repository Path**: learing8hard/yolov5_learning
## Basic Information
- **Project Name**: yolov5_learning
- **Description**: 本项目仅对yolov5学习,如果使用,请引用原仓库和论文。
- **Primary Language**: Python
- **License**: Apache-2.0
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 1
- **Forks**: 0
- **Created**: 2021-07-30
- **Last Updated**: 2022-11-12
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
## [YOLO v5](https://github.com/ultralytics/yolov5)在医疗领域中消化内镜目标检测的应用
### YOLO v5训练自己数据集详细教程
**Xu Jing**
------
:fire: 由于官方新版YOLO v5的backbone和部分参数调整,导致很多小伙伴下载最新官方预训练模型不可用,这里提供原版的YOLO v5的预训练模型的百度云盘下载地址
链接:https://pan.baidu.com/s/1SDwp6I_MnRLK45QdB3-yNw
提取码:423j
------
+ YOLOv4还没有退热,YOLOv5已经发布!
+ 6月9日,Ultralytics公司开源了YOLOv5,离上一次YOLOv4发布不到50天。而且这一次的YOLOv5是完全基于PyTorch实现的!
+ YOLO v5的主要贡献者是YOLO v4中重点介绍的马赛克数据增强的作者
> 本项目描述了如何基于自己的数据集训练YOLO v5
但是YOLO v4的二作提供给我们的信息和官方提供的还是有一些出入:
#### 0.环境配置
安装必要的python package和配置相关环境
```
# python3.6
# torch==1.3.0
# torchvision==0.4.1
# git clone yolo v5 repo
git clone https://github.com/ultralytics/yolov5 # clone repo
# 下载官方的样例数据(这一步可以省略)
python3 -c "from yolov5.utils.google_utils import gdrive_download; gdrive_download('1n_oKgR81BJtqk75b00eAjdv03qVCQn2f','coco128.zip')" # download dataset
cd yolov5
# 安装必要的package
pip3 install -U -r requirements.txt
```
#### 1.创建数据集的配置文件`dataset.yaml`
[data/coco128.yaml](https://github.com/ultralytics/yolov5/blob/master/data/coco128.yaml)来自于COCO train2017数据集的前128个训练图像,可以基于该`yaml`修改自己数据集的`yaml`文件
```ymal
# train and val datasets (image directory or *.txt file with image paths)
train: ./datasets/score/images/train/
val: ./datasets/score/images/val/
# number of classes
nc: 3
# class names
names: ['QP', 'NY', 'QG']
```
#### 2.创建标注文件
可以使用LabelImg,Labme,[Labelbox](https://labelbox.com/), [CVAT](https://github.com/opencv/cvat)来标注数据,对于目标检测而言需要标注bounding box即可。然后需要将标注转换为和**darknet format**相同的标注形式,每一个图像生成一个`*.txt`的标注文件(如果该图像没有标注目标则不用创建`*.txt`文件)。创建的`*.txt`文件遵循如下规则:
- 每一行存放一个标注类别
- 每一行的内容包括`class x_center y_center width height`
- Bounding box 的坐标信息是归一化之后的(0-1)
- class label转化为index时计数是从0开始的
```python
def convert(size, box):
'''
将标注的xml文件标注转换为darknet形的坐标
'''
dw = 1./(size[0])
dh = 1./(size[1])
x = (box[0] + box[1])/2.0 - 1
y = (box[2] + box[3])/2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x*dw
w = w*dw
y = y*dh
h = h*dh
return (x,y,w,h)
```
每一个标注`*.txt`文件存放在和图像相似的文件目录下,只需要将`/images/*.jpg`替换为`/lables/*.txt`即可(这个在加载数据时代码内部的处理就是这样的,可以自行修改为VOC的数据格式进行加载)
例如:
```
datasets/score/images/train/000000109622.jpg # image
datasets/score/labels/train/000000109622.txt # label
```
如果一个标注文件包含5个person类别(person在coco数据集中是排在第一的类别因此index为0):
#### 3.组织训练集的目录
将训练集train和验证集val的images和labels文件夹按照如下的方式进行存放
至此数据准备阶段已经完成,过程中我们假设算法工程师的数据清洗和数据集的划分过程已经自行完成。
#### 4.选择模型backbone进行模型配置文件的修改
在项目的`./models`文件夹下选择一个需要训练的模型,这里我们选择[yolov5x.yaml](https://github.com/ultralytics/yolov5/blob/master/models/yolov5x.yaml),最大的一个模型进行训练,参考官方README中的[table](https://github.com/ultralytics/yolov5#pretrained-checkpoints),了解不同模型的大小和推断速度。如果你选定了一个模型,那么需要修改模型对应的`yaml`文件
```yaml
# parameters
nc: 3 # number of classes <------------------ UPDATE to match your dataset
depth_multiple: 1.33 # model depth multiple
width_multiple: 1.25 # layer channel multiple
# anchors
anchors:
- [10,13, 16,30, 33,23] # P3/8
- [30,61, 62,45, 59,119] # P4/16
- [116,90, 156,198, 373,326] # P5/32
# yolov5 backbone
backbone:
# [from, number, module, args]
[[-1, 1, Focus, [64, 3]], # 1-P1/2
[-1, 1, Conv, [128, 3, 2]], # 2-P2/4
[-1, 3, Bottleneck, [128]],
[-1, 1, Conv, [256, 3, 2]], # 4-P3/8
[-1, 9, BottleneckCSP, [256]],
[-1, 1, Conv, [512, 3, 2]], # 6-P4/16
[-1, 9, BottleneckCSP, [512]],
[-1, 1, Conv, [1024, 3, 2]], # 8-P5/32
[-1, 1, SPP, [1024, [5, 9, 13]]],
[-1, 6, BottleneckCSP, [1024]], # 10
]
# yolov5 head
head:
[[-1, 3, BottleneckCSP, [1024, False]], # 11
[-1, 1, nn.Conv2d, [na * (nc + 5), 1, 1, 0]], # 12 (P5/32-large)
[-2, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 6], 1, Concat, [1]], # cat backbone P4
[-1, 1, Conv, [512, 1, 1]],
[-1, 3, BottleneckCSP, [512, False]],
[-1, 1, nn.Conv2d, [na * (nc + 5), 1, 1, 0]], # 17 (P4/16-medium)
[-2, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 4], 1, Concat, [1]], # cat backbone P3
[-1, 1, Conv, [256, 1, 1]],
[-1, 3, BottleneckCSP, [256, False]],
[-1, 1, nn.Conv2d, [na * (nc + 5), 1, 1, 0]], # 22 (P3/8-small)
[[], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
]
```
#### 5.Train
```bash
# Train yolov5x on score for 300 epochs
$ python3 train.py --img-size 640 --batch-size 1 --epochs 300 --data ./data/score.yaml --cfg ./models/score/yolov5x.yaml --weights weights/yolov5x.pt
python3 train.py --img-size 640 --batch-size 1 --epochs 300 --data ./data/score.yaml --cfg ./models/score/yolov5s.yaml --weights weights/yolov5s.pt
models/yolov5s.yaml
```
#### 6.Visualize
开始训练后,查看`train*.jpg`图片查看训练数据,标签和数据增强,如果你的图像显示标签或数据增强不正确,你应该查看你的数据集的构建过程是否有问题
一个训练epoch完成后,查看`test_batch0_gt.jpg`查看batch 0 ground truth的labels
查看`test_batch0_pred.jpg`查看test batch 0的预测
训练的losses和评价指标被保存在Tensorboard和`results.txt`log文件。`results.txt`在训练结束后会被可视化为`results.png`
```python
>>> from utils.utils import plot_results
>>> plot_results()
# 如果你是用远程连接请安装配置Xming: https://blog.csdn.net/akuoma/article/details/82182913
```
#### 7.推断
```python
$ python3 detect.py --source file.jpg # image
file.mp4 # video
./dir # directory
0 # webcam
rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa # rtsp stream
http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8 # http stream
````
```python
# inference /home/myuser/xujing/EfficientDet-Pytorch/dataset/test/ 文件夹下的图像
$ python3 detect.py --source /home/myuser/xujing/EfficientDet-Pytorch/dataset/test/ --weights weights/best.pt --conf 0.1
python3 detect.py --source /media/st/data_fast/keti/0604/training/image_2 --weights weights/best.pt --conf 0.1
$ python3 detect.py --source ./inference/images/ --weights weights/yolov5x.pt --conf 0.5
# inference 视频
$ python3 detect.py --source test.mp4 --weights weights/yolov5x.pt --conf 0.4
```
#### 8.YOLOv5的TensorRT加速
[请到这里来](./README_v3.md)
**Reference**
[1].https://github.com/ultralytics/yolov5
[2].https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
#### txt的label文件制作只能在末尾空下一行
#### need change
1.data/ dataset setting.yaml
2.models/score/ model settting.yaml
3.datasets/score path of dataset
#### my train
python3 train.py --img-size 640 --batch-size 1 --epochs 300 --data ./data/my_data_setting.yaml --cfg ./models/score/my_model_setting.yaml --weights weights/yolov5s.pt
python3 train.py --img-size 640 --batch-size 28 --epochs 300 --data ./data/fire_danger.yaml --cfg ./models/score/fire_danger.yaml --weights weights/yolov5s.pt
python3 train.py --img-size 640 --batch-size 32 --epochs 300 --data ./data/stairway.yaml --cfg ./models/score/stairway.yaml --weights weights/yolov5s.pt
python3 train.py --img-size 640 --batch-size 28 --epochs 300 --data ./data/my_data_setting0614.yaml --cfg ./models/score/my_model_setting0614.yaml --weights weights/yolov5s.pt
python3 train.py --img-size 640 --batch-size 24 --epochs 300 --data ./data/my_data_setting0626.yaml --cfg ./models/score/my_model_setting0626.yaml --weights weights/yolov5s.pt
## install
环境:ubuntu18.04 cuda11.1 cudnn8.0.5 python3.7 pytorch pip3 install torch==1.9.1+cu111 torchvision==0.10.1+cu111 torchaudio==0.9.1 -f https://download.pytorch.org/whl/torch_stable.html (阿里云的镜像,可能会找不到相应的包。因此,需要去官方的网站下载,但是,terminal下载会慢。甚至下部下来。这时就自己在浏览器下载,然后,pip直接本地安装)
遇到的问题:
1.pyotch版本问题,代码有所改变。
b.data[:, 4] += math.log(8 / (640 / s) ** 2) # obj (8 objects per 640 image)
b.data[:, 5:] += math.log(0.6 / (m.nc - 0.99)) if cf is None else torch.log(cf / cf.sum()) # cls
官方yolov5的代码在这两句会报错。因此,按照上面进行更改就ok了。
2.训练时报以下错误
RuntimeError: CUDA error: no kernel image is available for execution on the driver,
这是因为没有使用相应的cuda版本预编译的pytorch。在pytorch的官网上,找相应的cuda11.1编译好的pytorch安装即可。