当前仓库属于暂停状态,部分功能使用受限,详情请查阅 仓库状态说明
47 Star 248 Fork 89

风酒 / Argus
暂停

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
README.md 4.59 KB
一键复制 编辑 原始数据 按行查看 历史
风酒 提交于 2020-04-21 05:11 . reverse readme

项目地址:https://gitee.com/windandwine/Argus 转载请注明出处

一、项目简介

fine-tune YOLO v3 + FaceNet进行人脸识别,辨别。

输入图片说明

1. 项目结构

--data

--|------baseface 图片、根据这些图片训练的128d向量,以及文件夹与人名的映射文件

---------|------0 第一个人的图片tag=0

---------|------1 第二个人的图片tag=1

......

---------|------n 第n个人的图片tag=n

---------|------map.txt 文件夹与人名的映射,依次放即可

---------|------vector.csv 根据这些图片得到的128维向量以及其类别(文件夹名)

--|------weights_facenet 模型文件(facenet)

--|------weights_yolo 模型(fune-tuning的yolo v3)

--|------weights_svm 模型(根据csv文件训练的svm模型)

--|------face-names 预测类别,默认即可

--|------yolo_anchors.txt 训练yolo v3时聚类得到的anchors框

--net yolo和facenet的网络

--preprocessing 预处理工具,下文的使用方法前期步骤都需要在这里运行

--setting 模型参数,可根据需要修改

--utils 封装的一些方法

--test.py 主体方法

2.模型文件(权重)

yolo_face模型

yolo v3是基于论文作者模型,在Wider Face数据上fine-tuning的。 可以到这里下载,密码qli4

facenet模型

  1. model-20170512-110547,请到这里下载,密码9x2l
  2. model-20180408-102900,请到这里下载,密码jjf1
  3. model-20180402-114759(推荐),请到这里下载,密码56mh

3.yolo v3

YOLO v3的详细预测和训练,可到本人另一个项目YOLO_v3_tensorflow了解。

4.踩的坑

  1. fine-tune yolo v3时使用的是wider face数据集,其中有两个标注框是宽度或高度为0的,错误标注,筛选的时候需要去除掉这两个标注框,否则nms会报除0的异常。
  2. 训练svm时,需要标准化,预测时需要用同参数标准化再预测,否则svm预测结果都相同。
  3. 之前使用model-20170512-110547模型,输出128d向量,效果不好,换成model-20180402-114759模型,输出512d向量,效果有所提升。
  4. 每个人15张脸部图片,训练svm效果一般,可以增大样本量或者使用一些svm的tricks。

三、使用方法

项目需要安装以下包

numpy==1.16.4
pandas==0.24.2
opencv-python==4.1.1
scikit-learn=0.21.2
tensorflow==1.13.1
pillow==6.1.0

1.放置模型文件

下载yolo_face和facenet模型文件,放置在data文件夹下,如图

输入图片说明

2.制作自己的人脸数据集

截取需要识别的人物的脸部图片,一人一个文件夹,文件夹名称从0开始依次累加,放在路径data/base_face下。

输入图片说明

并修改data/map.txt,以空格分隔,下标和人脸文件夹名一一对应(map.txt中第一条下标为0,对应data/base_face/0文件夹)。

3.使用工具将图片转换成向量并存储

运行preprecessing/pre_tools.py内的save_vector_csv(),自动将图片使用facenet转换为128d或512d向量,并存储为data/base_face/vector.csv

4.训练svm分类器

基于已经储存的vector.csv文件,进行标准化后,运行preprecessing/pre_tools.py内的train_face_svm(),使用scikit-learn训练svm模型,并储存在data/weights_svm/svm.pkl中。

5.开始测试

5.1图片测试

放在data/test_img下,将setting/yolo_args.py中的detect_object改为imginput_image 改为图片路径。

运行根目录下的test.py文件。

另外如果要存储检测后的图片,将setting/yolo_args.py中的output_image改为要存储的路径,并保证各层级文件夹存在

5.2视频测试

放在data/test_video下,将setting/yolo_args.py中的detect_object改为videoinput_video 改为视频路径。

运行根目录下的test.py文件。

另外如果要存储检测后的视频,将setting/yolo_args.py中的output_video改为要存储的路径,并保证各层级文件夹存在

如有疑问,请贴在issues。

Python
1
https://gitee.com/windandwine/Argus.git
git@gitee.com:windandwine/Argus.git
windandwine
Argus
Argus
master

搜索帮助