目标检测YOLO v1-v5演进

目标检测YOLO v1-v5演进,第1张

目标检测是与计算机视觉和图像处理相关的计算机技术,用于在一张图片中识别出些物体的种类,同时要求标出物体的位置。目标检测已被广泛应用于人脸检测、自动驾驶和视频监控等图像领域。

目标检测中的常见方法,分为one-stage和two-stage两类。One-stage方法首先输入图片,输出Bounding box (bbox)和分类标签,由一个网络完成,该方法以YOLO、SSD为主要代表。Two-stage方法则以Faster-RCNN为代表,输入图片后,首先生成建议区域(Region Proposal),再输入分类器进行分类,两个任务由不同网络完成。

其中,YOLO目标检测是一种突出且优秀的算法,其为“you only look once”的缩写,意为只需浏览一次即可识别出图中物体的类别与位置,且完美地平衡了检测速度和精度之间的关系。YOLO也由最初的YOLO v1发展到现在最新的YOLO v5。

2015年提出了第一版YOLO v1,YOLO借鉴GoogleNet而提出了Darknet网络。Darknet是用C语言和CUDA编写的开源神经网络框架,用1x1卷积层+3x3卷积层替代GoogleNet的Inception模块。网络由24 层卷积层接2层全连接组成,如图1:

YOLO v1的框架如图2所示:首先调整图像大小为448×448,随后将图像输入CNN,最后通过非极大值抑制(NMS)保留最终标定框。

YOLO v1 的核心思想在于将目标检测视为回归问题,其将图片划分成 SxS 个网格,如果目标中心落入某网格单元,则该网格就负责检测该目标。每个网格单元预测 B个边界框(bbox)和类别信息。此外,每个bbox需要预测(x, y, w, h)和置信度共5个值。因此,最终每个网格应预测B个bbox和C个类别,最终输出S x S x (5*B+C)的tensor。

优点:

YOLO v2在YOLO v1基础上进行了一系列的改进,在保持分类精度的同时,提高了目标定位的精度以及召回率。首先,YOLO v2能够适应不同的输入尺寸,并可根据需要自行权衡检测准确率和检测速度;其次,根据层级分类提出了WordTree来混合检测数据集与分类数据集;最后,提出了可同时在检测和分类数据集上进行的联合训练方式,使用检测数据集训练模型识别部分,使用分类数据集训练模型分类部分,扩充检测种类。

对于YOLO v1更为具体的改进包括以下几点:

不过YOLO v2仍然无法解决同一个网格内物体重叠的问题。YOLO v3则继续在YOLO v2上做了些许改进:

2020年4月,YOLO v4重磅发布。其在MS COCO数据集上的精度达到了43.5% AP,速度达到65FPS,与 YOLO v3相比分别提高了 10% 和 12%。

YOLO v4首先对相关工作进行总结,并对目标检测框架拆分:

Object Detection = Backbone + Neck + Head

此外,将所有所有的调优手段分为两类:“Bag of freebies”和“Bag of specials”。

YOLO v4总结了以上各种调优技巧,从中寻找最优组合。并在训练过程中,验证了Bag-of-Freebies和Bag-of-Specials对于YOLO v4的影响。

自YOLO v4发布的40余天后, Ultralytics公司开源了非官方的YOLO v5,其完全基于PyTorch实现。值得注意的是,每个图像的推理时间达到140 FPS,并且YOLOv5的权重文件大小仅为YOLOv4的1/9。YOLO v5更快,也更小巧!

由以上YOLO的发展历程可看出, YOLO系列的发展后期更重视应用落地,没有提出非常新颖的创新点。

以下文章是通袜基过yolov3方式训练的方式

Darknet-YOLO: https://pjreddie.com/darknet/yolo/ (用来训练模型)

labelImg: https://github.com/tzutalin/labelImg (用来给照片打标签,给需要识别的物体打上标签)

1.拍照片要求 (本人用的照片是416*416的) (用的照片大概用了1000多张,考虑从不同角度、灯光、距离祥拿、场景)

尺寸: 正方形 (416*416)

2.给照片打标签,一个照片上可以打上多个标签名称,自己可以研究一下labelImg的使用方法

3.将打好标签的图片放入文件夹

下面我介绍一下文件夹中的内容

Annotations (存放 由 labelImg 训练好的 xml文件)

test.txt、train.txt、val.txt中存放图片名字

JPeGImages文件夹中存放图片

以上就是图片准备工作

2.yolov3工作

大家按照官网步骤 *** 作即可

下面有两位大神的训练步骤可谨好搭以借鉴

https://blog.csdn.net/qq_21578849/article/details/84980298

https://www.jianshu.com/p/f4518fe04da1

有voc训练和tiny训练方式,我两种方式都试了一下,建议大家使用tiny训练方式,因为我试了voc的训练方式,训练出来的模型特别的卡顿

以上yolov3训练需要将近四五个小时左右,所以需要大家耐心等待

然后我们将权重文件训练为iOS中需要的mlmodel模型

我用的是下面的这个方式,大家可以尝试一下

https://github.com/Mrlawrance/yolov3-ios

我用这个人的训练方式遇到一个问题就是 执行下面convert.py *** 作的时候要把 -w去掉换成下面这句

修改后的方法

大家如果在训练的过程中有遇到什么问题也可以交流一下

Nvidia RTX 3060

Ubuntu 16.04

CUDA 11.1

cuDNN 8.2.0

torch 1.10.1+cu111

torchvision 0.11.2+cu111

YOLOv5搭建及训练自己的数据集,请参考另一篇滚亮文章: https://www.jianshu.com/p/b3fa74f6c27b

训练完毕会得到 best.pt 和 last.pt 的权重文件,权重文件在 /run/train/exp/weights 下

以YOLOv5 v6.0版本为例,先使用原始权重文件及项目提供的原始图片进行detect推理一下,可以修改detect.py文件

可以先使用命令查看一下正确指令

然后,使用命令

运行结果将被保存在 /run/detect文件夹下

detect结果如下:

detect结果除了有大巧宽标注的图片外,还有一个文件夹记录检测框的信息:

可以根宽贺据上述自行修改,对自己的项目进行detect。

我在detect的时候,一直没有检测框,找了一天bug,原来是命令写错了,两行心酸泪==

一定按照 python detect.py -h 写,不然对图片不做任何修改


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/12283281.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-24
下一篇 2023-05-24

发表评论

登录后才能评论

评论列表(0条)

保存