一个目标检测的 Hello World项目(手把手带你搭建yolov3)

工欲善其事必先利其器!这是CVHub公众号的第九篇原创文章,也是《学术小白也能看懂的学术进阶专栏》(计算机视觉方向)的第九篇文章!前言欢迎大家来到CVHub学习。本文主要介绍的是使用Pytorch搭建YOLOv3目标检测网络,并从头开始训练自定义数据集。YOLOv3的Github地址(点击文末左下角阅读原文可直接跳转):https://github.com/CVHuber/Detection-getting-started模型测试(Linux环境下)环境安装与模型下载首先将github代码克隆到本地git clone https://github.com/CVHuber/Detection-getting-started进入到项目文件夹并安装项目运行环境cd Detection-getting-started/ # 进入项目文件夹pip install -r requirements.txt # 安装运行环境模型权重下载cd weights/ # 进入weights文件夹bash download_weights.sh # 下载模型权重 模型权重下载之后,在./weights文件夹下会有三个模型权重文件: 模型测试在Detection-getting-started项目文件夹下,运行脚本:python detect.py –image_folder data/samples/模型测试结果将会存放在./output文件夹下:
训练Pascal Voc2007数据集数据集下载目标检测常用的公共数据集有:Pascal Voc,MSCOCO,Google Open Image,ImageNet和DOTA数据集等。在本文中,我们将采用Pascal Voc2007数据集,因为其数据集比较小(训练和验证集总共才439M,测试集共431M),所以可以很快的跑通检测模型并验证模型!Pascal Voc2007数据集下载链接:https://pjreddie.com/projects/pascal-voc-dataset-mirror/将训练集 / 测试集下载完成之后并解压: 其中,JPEGImages是图片,Annotations是目标检测的Label,SegmentationClass和SegmentationObject分别是分类与分割的Label;所以我们只需要取JPEGImages和Annotations即可。数据准备在./data文件夹下新建一个文件夹voc2007,并在voc2007文件夹下新建train和test文件夹分别存放训练集和测试集,将训练集 / 测试集分别存放到相应的文件夹: 运行./utils文件夹下的gen_classes.py脚本,并可以统计数据集中存在的待检测目标,并将目标名称写入到classes.names,生成的classes.names文件被保存与./data/voc2007/train文件夹下:cd utils/ # 进入到utils文件夹python gen_classes.py # 运行脚本运行./utils文件夹下的voc.py脚本python voc.py./data文件夹下则会产生一个新的名为custom文件夹,custom文件夹包含了YOLOv3模型所需要的数据:
注释:其中images是训练集和验证集的图片(从JPEGImages复制而来);annotation是训练集和验证集的原始标注文件(从Annotations复制而来);train.txt存放训练图片的绝对路径;valid.txt存放验证图片的绝对路径;labels文件夹下存放了每张图片的检测框信息,检测框信息由(classes_id, x_center_norm, y_center_norm, width_norm, height_norm)组成:x_center_norm=[(xmin + xmax) / 2.0] / img_widthy_center_norm=[(ymin + ymax) / 2.0] / img_heightwidth_norm=[(xmax – xmin) / 2.0] / img_widthheight_norm=[(ymax – ymin) / 2.0] / img_height配置文件
在./config文件夹下运行如下脚本:bash create_custom_model.sh 20其中20是数据集中存在的待检测目标数目(因为Pascal Voc2007数据集共20个类别,所以填20),运行上脚本之后之后,在./config文件夹下会生成模型配置文件yolov3-custom.cfg: 注释:yolov3-custom.cfg模型配置文件里存放了模型的超参数,可以自己调节这些超参数,比如图片的输入尺寸,初始学习率,ignore_thresh阈值,还有一些卷积参数等等。修改./config文件夹下的custom.data,修改后的数据如下: 模型训练在项目文件夹下运行如下脚本:pythontrain.py–data_configconfig/custom.data–model_defconfig/yolov3-custom.cfg–device_id0如果要加载预训练模型进行训练,则添加–pretrained_weightsweights/darknet53.conv.74即可模型训练情况: 模型评估在项目文件夹下运行如下脚本对刚刚训练得到的模型进行性能评估:pythontest.py–weights_path/checkpoints/yolov3_ckpt_10.pth–model_defconfig/yolov3-custom.cfg–data_configconfig/custom.data–class_pathdata/custom/classes.names如若运行成功,会出现如下信息: 模型预测如果要使用训练好的模型进行图片预测,并将预测结果保存,则运行如下脚本,预测结果保存在./output文件夹下:pythondetect.py–image_folderdata/voc2007/test/JPEGImages–model_defconfig/yolov3-custom.cfg–weights_path/checkpoints/yolov3_ckpt_10.pth–class_pathdata/classes.names训练自己的数据集自定义数据集比如公司要你实现一个检测算法:在某特定业务场景下,检测出印刷电路板上的缺陷具体位置并将缺陷进行归类。比如,下面这几块电路板分别存在short,missing_hole和mouse_bit这三种类别的缺陷,图片引自于[2] 当采集了大量的数据之后,需要对数据集进行label制作,常用的目标检测label制作工具有:LabelImg:https://github.com/tzutalin/labelImg (最常用)BBox-Label-Tool:https://github.com/puzzledqs/BBox-Label-ToolLabelme:https://github.com/wkentaro/labelmeCasiaLabeler:https://github.com/msnh2012/CasiaLabeler
我们一般选择LabelImg进行目标检测框的标注,通过LabelImg,我们可以制作Pascal Voc格式的标注文件。模型训练接下来,将数据集图片存入./data/voc2007/train/JPEGImages文件夹下,将制作好的Label存入./data/voc2007/train/Annotations文件夹下,之后的训练过程就和刚刚的一样了!注意:如果使用另一个标注工具进行Label制作,则只需要自己写好脚本将Label转换为Pascal Voc格式的标注文件即可,后续训练流程如上!模型改进思路如果任务比较简单,可以将特征提取网络Darknet53替换成更加轻量级的特征提取网络首先观察数据集,如果待检测目标物体尺度变化较大,则三个预测分支是比较合适的,甚至还可以多加一个检测分支,形成四个检测分支去检测目标;如果待检测目标尺度单一,则可以去掉另外两个检测分支,只考虑一个检测分支,这对精度影响是很小的对于待检测目标尺度变化较大问题,可以考虑加入多尺度上下文信息提取模块ASPP或者PSP,并结合通道注意力SE block,有时候会有奇效;同时也可以将FPN架构加入到特征提取器的头部用来解决多尺度目标问题可以将边框回归损失MSE替换为IOU–>GIOU–>DIOU–>CIOU(这几种边框回归损失函数需要好好掌握理解,面试常问)将通道/空间注意力应用到网络中不同位置,尝试效果结语完整代码工程文件可参看我的Github。
Github地址(点击文末左下角阅读原文可直接挑转):https://github.com/CVHuber/Detection-getting-started
所有代码均写有详细注释。Reference:
[1] https://blog.csdn.net/shuzfan/article/details/52711706[2] https://github.com/Ixiaohuihuihui/Tiny-Defect-Detection-for-PCB交流渠道微信群(长按加入):

为您推荐