计算机系统应用  2022, Vol. 31 Issue (12): 242-250   PDF    
基于改进YOLOv5的小目标检测
黎学飞1, 童晶1, 陈正鸣1, 包勇2, 倪佳佳1     
1. 河海大学 物联网工程学院, 常州 213022;
2. 江苏医像信息技术有限公司, 常州 213022
摘要:本文针对图像中小目标难以检测的问题, 提出了一种基于YOLOv5的改进模型. 在主干网络中, 加入CBAM注意力模块增强网络特征提取能力; 在颈部网络部分, 使用BiFPN结构替换PANet结构, 强化底层特征利用; 在检测头部分, 增加高分辨率检测头, 改善对于微小目标的检测能力. 本文算法在人脸瑕疵数据集和无人机数据集VisDrone2019两份数据集上均进行了多次对比实验, 结果表明本文算法可以有效地检测小目标.
关键词: 小目标检测    注意力机制    特征融合    YOLOv5    BiFPN    
Small Target Detection Based on Improved YOLOv5
LI Xue-Fei1, TONG Jing1, CHEN Zheng-Ming1, BAO Yong2, NI Jia-Jia1     
1. College of Internet of Things Engineering, Hohai University, Changzhou 213022, China;
2. Jiangsu Medical Image Information Technology Co. Ltd., Changzhou 213022, China
Abstract: In this study, an improved model based on you only look once version 5 (YOLOv5) is proposed to solve the problem of difficult detection of small targets in images. In the backbone network, a convolutional block attention module (CBAM) is added to enhance the network feature extraction ability. As for the neck network, the bi-directional feature pyramid network (BiFPN) structure is used to replace the path aggregation network (PANet) structure and thereby strengthen the utilization of low-level features. Regarding the detection head, a high-resolution detection head is added to improve the ability of small target detection. A number of comparative experiments are conducted, respectively, on a facial blemish dataset and an unmanned aerial vehicle (UAV) dataset VisDrone2019. The results show that the proposed algorithm can effectively detect small targets.
Key words: small target detection     Attention mechanism     feature fusion     YOLOv5     bi-directional featurepyramid network (BiFPN)    

目标检测是计算机视觉的重要研究方向, 也是众多复杂视觉任务的基础, 被广泛应用于工业、农业等领域[1]. 尽管深度学习技术的出现使得目标检测取得了较大的突破, 但是现有的方法依然很难较好的检测小目标. 小目标尺寸小、特征不明显, 在检测中误检率、漏检率一般均较高, 因此提升小目标检测性能仍然是一个具有挑战性的研究方向[2].

2012年, AlexNet在ImageNet图像识别比赛中夺冠以后, 神经网络迅速发展[3]. 凭借其强大的特征表达能力和建模能力, 神经网络在图像领域快速发展并得到广泛应用, 目标检测也由此得到了快速发展. 目前, 基于深度学习的目标检测主要分为两类: 1)两阶段检测器, 如基于区域的RCNN[4]及其变体[5-7]. 2)一阶段检测器, 如SSD[8]和YOLO系列[9]及其变体[10, 11]. 两阶段检测器首先需要生成可能包含目标的候选框, 然后使用区域分类器预测; 一阶段检测器直接对特征图的各位置上的目标进行分类预测, 其更省时且具有更大的实用性. 在YOLO系列中, YOLOv3最为经典, 其在YOLOv2上增加一个特征金字塔, 使得其自上而下多级预测的结构增强了网络对于小目标的检测能力.

YOLOv5是继YOLOv3之后被广泛运用于工业检测的算法, 能够在保持较高精确率的同时满足实时性要求, 并且可以根据不同的工作环境和检测任务选择不同的检测型号. Song等人[12]将YOLOv5应用于道路密集车辆实时检测. Sruthi等人[13]将YOLOv5搭载与搜救无人机上, 用于搜救过程中的人体检测. Dong等人[14]将YOLOv5结合注意力机制, 提出了一种用于检测肺结节的方法. YOLOv5利用深度残差网络提取目标特征, 并利用PANet结构完成了多尺度预测, 但是YOLOv5提取特征获得最大特征图时依然进行了3次下采样, 目标特征信息丢失过多, 对于微小目标的检测并不理想. 因此, 本文对YOLOv5进行改进, 提出了BCF-YOLOv5检测模型, 用于小目标检测. 主要贡献如下: 1)针对小目标对象提出了一种新的检测模型. 2)基于注意力机制, 通过改进主干网络增强模型对于目标特征的提取. 3)基于双向交叉连接和加权融合的思想, 引入额外特征分支, 强化底层特征利用. 4)针对目标尺寸较小的特点, 在检测头部分增加高分辨率检测分支, 增强模型对于微小目标的检测能力.

1 BCF-YOLOv5模型

YOLOv5由Ultralytics于2020年5月提出[15], 是性能非常优秀的一阶段检测器, 所以选择它作为我们的基础模型. YOLOv5有YOLOv5s、YOLOv5m、YOLOv5l 、YOLOv5x四个模型. 通过depth_multiple和width_multiple两个参数控制模型的复杂度.其中YOLOv5s模型最小, 检测速度最快, 但是检测精度最低; YOLOv5x模型最大, 检测精度最高, 但是检测速度最慢. 一般来说, YOLOv5采用CSPDarknet53框架加一个SPP层作为骨干, 搭配PANet颈部和YOLO检测头. 尽管YOLOv5x模型的计算成本高于其他3个模型, 但是为获得最好的检测性能, 本文依然选择YOLOv5x作为基础模型. 针对小目标尺寸小、特征不明显的特点, 我们修改了最初的YOLOv5, 提出了BCF-YOLOv5模型, 使其更加适用于微小目标的检测, 其网络结构如图1所示.

BCF-YOLOv5模型在结构上分为4部分: 输入、主干网络、颈部网络和检测头部分. 输入部分将训练数据进行Mosaic、Mixup等数据增强, 然后对图片进行自适应缩放以及自适应锚框计算. 主干网络包括Focus、CBAM (convolutional block attention module)[16]、CSP和SPP结构, Focus通过自我复制然后进行切片操作, 加快网络推理. CBAM注意力模块提高主干网络对小目标的特征提取能力. CSP残差结构优化梯度信息传递, 减少推理计算量. SPP空间金字塔结构分别采用直连和5、9、13的最大池化, 然后进行concat融合, 提高感受野. 颈部网络部分采用BiFPN结构, 以双向交叉连接方式进行特征融合, 得到一系列分层特征表示, 并将这些特征表示传递给检测头部分. 检测头输出依然采用CIoU作为Bounding box的损失函数, 并提供4种检测尺度(20×20、40×40、80×80、160×160). 最后通过NMS对目标检测框进行非极大值抑制获得最优预测框.

1.1 小目标检测头

原始YOLOv5模型主干网络一共进行5次下采样, 得到5层特征表达(P1、P2、P3、P4和P5), 其中Pi表示分辨率为原始图片的1/2i, 尽管在颈部网络中通过自上而下和自下而上的聚合路径实现了多尺度特征融合, 但是并不影响特征图的尺度, 最后检测头部分在通过P3、P4和P5这3级特征图引出的检测头上进行目标的检测, 其特征图尺度分别为80×80、40×40、20×20. 为方便表达, 通过Pi层特征图引出的检测头, 以下简称为Pi层检测头. 在小目标检测任务中, 往往存在非常小的待检目标. 在本文自建的人脸瑕疵数据中, 包含较多的诸如点状色斑、小黑痣等微小瑕疵, 其尺度往往小于6×6像素. 在VisDrone2019[17]公开无人机数据集中, 甚至含有较多小于3×3像素的目标. 这样的目标在经过多次下采样之后, 其大部分特征信息已经丢失, 尽管通过具有较高分辨率的P3层检测头依然难以检测到.

为了实现上述微小目标同样可以达到较好的检测效果, 我们在YOLOv5模型上通过P2层特征引出了新的检测头. 结构如图2所示. P2层检测头分辨率为160×160像素, 相当于在主干网络中只进行了2次下采样操作, 含有目标更为丰富的底层特征信息. 颈部网络中自上而下和自下而上得到的两个P2层特征与主干网络中的同尺度特征通过concat形式进行特征融合, 输出的特征为3个输入特征的融合结果, 这样使得P2层检测头应对微小目标时, 能够快速有效的检测. P2层检测头加上原始的3个检测头, 可以有效缓解尺度方差所带来的负面影响. 增加的检测头是针对底层特征的, 是通过低水平、高分辨率的特征图生成的, 该检测头对微小目标更加敏感. 尽管添加这个检测头增加了模型的计算量和内存开销, 但是对于微小目标的检测能力有着不小的提升.

图 1 BCF-YOLOv5模型结构图

图 2 小目标检测头

1.2 CBAM注意力模块

CBAM是一种轻量的注意力模块, 其简单有效, 可以直接集成到CNN架构中, 并且可以端到端的对其进行训练. 在给定特征映射的情况下, CBAM会依次沿着通道和空间两个独立维度推导注意映射, 然后将注意映射与输入特征映射相乘, 进行自适应特征细化. CBAM模块的结构如图3所示, 在文献[16]中, CBAM模块被集成到不同数据集和不同分类任务的不同模型中, 模型性能均得到了较大提升, 证明了CBAM模块的有效性.

图 3 CBAM注意力模块

小目标尺寸较小、特征少且不明显, 在主干网络中加入CBAM注意力模块, 可以增强网络对于目标特征的提取能力, 同时直接改善颈部网络部分的特征融合. 在检测任务中, CBAM注意力模块可以帮助模型有效的提取注意区域, 提高检测性能.

1.3 BiFPN网络

BiFPN[18]网络是集成双向交叉连接和加权融合的一种高效的多尺度特征融合方法. 自FPN[7]被提出以来, FPN被广泛应用于多尺度特征融合. 近些年来, PANet[19]、M2det[20]和NAS-FPN[21]等更多的多尺度特征融合网络结构被研究学者们提出来, 但是在融合不同层次的输入特征时, 大部分工作都是不加区分的总结它们. 然而, 这些不同的输入特征有着不同分辨率, 对融合的输出特征具有在不同的贡献. 为此, 文献[17]提出了一种简单但高效的加权双向特征金字塔网络(BiFPN), 它引入了可学习的权重因子来表征不同输入特征的重要程度, 同时反复应用自顶向下和自底向上的多尺度特征融合.

为充分利用目标的底层特征, 本文对颈部网络进行了改进, 将原始PANet网络换成BiFPN网络, 以提高检测精度, 其结构如图4所示. 尽管YOLOv5中的PANet通过自顶向下和自底向上的路径聚合实现了较好的多尺度特征融合结果, 但计算量较大, 且自底向上特征融合阶段的输入特征中并没有主干网络生成的原始输出特征. BiFPN采用跨连接去除PANet中对特征融合贡献度较小的节点, 在同一尺度的输入节点和输出节点间增加一个跳跃连接, 在不增加较多成本的同时, 融合了更多的特征. 在同一特征尺度上, 把每一个双向路径看作一个特征网络层, 并多次反复利用同一层, 以实现更高层次的特征融合.

图 4 改进颈部网络

2 检测算法

本文通过加入CBAM注意力模块增强网络对于目标特征的提取能力, 搭配BiFPN结构和高分辨率检测头强化网络对于小目标的检测能力. 模型简化结构如图5所示, 其中 $ Pred4 $ 是通过P2层特征图 $ {H_2} $ 得到的高分辨率检测头, 其可以有效检测图像中的微小目标, 从而达到提升整体检测性能的目的.

2.1 加权特征融合

结合双向交叉连接和快速标准化特征融合. 为每个特征分支提供一个权重因子, 通过网络自学习得到最佳权值. 对于特征输入 $ I $ , 快速标准化融合 $ O $ 的计算方式如式(1):

$ \begin{split}\\ O = \sum\nolimits_i {\frac{{{w_i}}}{{\varepsilon + \displaystyle\sum\nolimits_j {{w_j}} }}} \cdot {I_i} \end{split} $ (1)

其中, 通过ReLU函数保证每个 $ {w_i} $ 均满足 $ {w_i} \geqslant 0 $ , $ \varepsilon = 0.0001 $ 是一个极小值以避免数值不稳定.

本节以 $ Pred3 $ 的计算过程为例, 以体现本文算法的计算过程. 计算过程如式(2):

$ \left\{ {\begin{gathered} H{_2^{{{\rm{out}}}'}} = {\textit{Upsample}}(H_2^{{\rm{out}}}) \\ H_3^{{\rm{out}}} = Conv\left(\frac{{{\omega _1} \cdot Con{v^{1 \times 1}}(I_3^{{\rm{out}}}) + {\omega _2} \cdot N_3^{{\rm{out}}} + {\omega _3} \cdot H{{_2^{{\rm{out}'}}}}}}{{{\omega _1} + {\omega _2} + {\omega _3} + \varepsilon }}\right) \\ Pred3 = Conv(H_3^{{\rm{out}}}) \\ \end{gathered}} \right. $ (2)

其中, $ Conv() $ 为卷积操作, $ {\textit {Upsample}}() $ 为线性2倍上采样操作, ${\rm{out}}$ 表示该网络层输出. $Con{v^{1 \times 1}}( \cdot )$ $ 1 \times 1 $ 卷积, 调整 $I_3^{{\rm{out}}}$ 通道数使其与 $N_3^{{\rm{out}}}$ $H_2^{{\rm{out}}}$ 相同, 以便可以进行特征融合.

2.2 Concat特征融合

结合双向交叉连接和Concat特征融合. 为尽可能地保留特征, 不对通道维数进行压缩, 抛弃了加权融合的思想, 以一定的内存资源为代价保留完整的特征信息. 本节同样以 $ Pred3 $ 计算为例, 过程如下:

$ \left\{ {\begin{split} & H{_2^{{{\rm{out}}}^\prime }} = {\textit{Upsample}}(H_2^{{\rm{out}}}) \\ & H_3^{{\rm{out}}} = Conv(Concat(I_3^{{\rm{out}}} + N_3^{{\rm{out}}} + H{_2^{{{\rm{out}}}^\prime }})) \\ & Pred3 = Conv(H_3^{{\rm{out}}}) \end{split} } \right.$ (3)

其中, $ Concat( \cdot ) $ 操作为将全部输入特征直接进行通道数叠加, 输出特征与各输入特征满足:

$ {O_{{\rm{channel}}}} = \sum\nolimits_i {I_{{\rm{channel}}}^i} $ (4)

其中, $ I $ 表示输入特征, $ O $ 表示输出特征, channel表示通道数.

本文在YOLOv5中添加额外分支时提供了两种特征融合方案, 其中加权特征融合可以在同等资源下获取更为丰富的目标特征, 提高模型检测性能, 该特征融合策略可以用于轻量化模型中, 既可以保持较高的检测性能, 又可以节省较多的计算资源. 但是本文提出的BCF-YOLOv5模型支路过多(支路数>2), 采用加权融合过度压缩了通道资源, 经实验得知其效果要低于concat特征融合方式, 尽管concat特征融合方式将占有更多的计算资源, 但本文为获得最优的检测性能, 依然采用concat特征融合方式.

图 5 BCF-YOLOv5简化结构图

3 实验

本文实验使用自建人脸瑕疵数据集与公开无人机数据集Visdrone2019评估模型性能, 并分别从数据集介绍、网络设置与训练、评价指标、实验结果分析和消融实验5个方面展开介绍.

3.1 数据集介绍 3.1.1 人脸瑕疵数据集

人脸瑕疵数据集由江苏医像信息技术有限公司提供, 全部使用专业设备VISIA7进行拍摄获取. 数据集包含高分辨率人脸图片2436张, 标注的瑕疵类型共有6类, 分别为acne (痤疮)、acne_scars (痘印)、nevus (黑痣)、pustule (脓疮肉囊)、freckle (色斑)、others (其他).

人脸瑕疵数据的标记通过labelimg手工标注完成, 瑕疵标签共有33218个. 通过观察原始数据可以发现, 超过45%的瑕疵标签均在16×16像素以下. 数据可视化分析如图6所示.

3.1.2 VisDrone2019公开无人机数据集

VisDrone2019数据集由天津大学机器学习和数据挖掘实验室AISKYEYE团队收集, 基准数据集包含288个视频片段、261908帧和10209幅静态图像. 数据集是在不同的场景、不同的天气和光照条件下使用各种无人机平台(即不同型号的无人机)收集的, 手工标注了超过260万个边界框或经常感兴趣的目标点, 包括行人、人、轿车、货车、公共汽车、卡车、摩托车、自行车、遮阳篷三轮车和三轮车等10个感兴趣的对象类别. 其各类标签数量如表1所示.

图 6 数据分析

3.2 网络设置与训练

本节将以人脸瑕疵数据集为例, 详细介绍YOLOv5与BCF-YOLOv5的训练过程. 实验所使用硬件配置为24 GB的NVIDIA GeForce RTX 3090显卡, 深度学习框架为PyTorch 1.7.1, Python版本为3.8.5, CUDA版本为11.0, 操作系统为Ubuntu 18.04.

3.2.1 损失函数设置

BCF-YOLOv5的损失函数与YOLOv5是一致的, 均包括置信度损失( $Los{s_{{\rm{obj}}}}$ )、矩形框损失( $Los{s_{{\rm{box}}}}$ )和分类损失( $Los{s_{{\rm{cls}}}}$ ).

$ Loss = a \cdot Los{s_{{\rm{obj}}}} + b \cdot Los{s_{{\rm{box}}}} + c \cdot Los{s_{{\rm{cls}}}} $ (5)

其中, $ a $ $ b $ $ c $ 均表示相应损失函数在总损失函数中的权重占比, 本文实验均取值1, 表示三者权重一样. 其中分类和置信度损失均使用BCEWithLogitsLoss函数, 矩形框回归采用CIOU_Loss.

3.2.2 网络训练

在训练前, 将数据集图片和标签按照8:1:1的比例分为训练集、验证集和测试集. 在训练阶段, 我们首先训练原始YOLOv5模型, 并使用了官方预训练模型, 这样可以加速网络训练. 在训练数据集上最大训练次数epoch为250, 前3个epoch用于热身训练, 并采用SDG优化策略进行学习率调整, 使用3E–2作为余弦退火策略的初始学习率, 最后一个epoch学习率降为3E–3, 即初始学习率的0.1, 训练过程中batch_size设置为8. YOLOv5模型训练完成以后, 开始训练BCF-YOLOv5模型, 这里将使用前面YOLOv5在人脸瑕疵数据集上的部分训练权重, 因为BCF-YOLOv5与YOLOv5共享骨干网络的大部分, 使用这些权重, 我们可以将许多权重从YOLOv5转移到我们新的模型上, 可以节省大部分的训练时间. 同样的, 训练最大次数epoch依然是250, batch_ size设置为8, 超参数全部保持一致.

BCF-YOLOv5网络训练过程中各收敛曲线如图7所示, 对各损失函数分别进行分析, 可以确保总损失函数的收敛完整度.

表 1 VisDrone2019数据集各类标签数量

图 7 收敛图(横坐标表示epoch, 纵坐标表示损失函数)

由收敛图可知, 网络大约在240多epoch时, 即73000余次迭代后各参数趋于平稳, 总损失函数下降到0.06左右. 从收敛情况来看, BCF-YOLOv5网络的训练结果比较理想.

3.3 评价指标

为验证模型性能, 本文选用精确率(Precision, P)、召回率(Recall, R)、平均精度(average precision, AP)、平均精度均值(mean average precision, mAP)来评估模型的检测性能.

1) 精确率和召回率:

$ P = \frac{{TP}}{{TP + FP}} \cdot 100{\text{%}} $ (6)
$ R = \frac{{TP}}{{TP + FN}} \cdot 100{\text{%}} $ (7)

其中, TP (true positives)表示被正确检测出来的目标数量, FP (false positives)表示被检测为目标的背景数量, FN (false negatives)表示被检测为背景的目标数量.

2) 平均精度和平均精度均值:

$ AP = \int_0^1 {P(R)dR} $ (8)
$ mAP = \frac{{\displaystyle\sum {{P_A}} }}{{{N_C}}} $ (9)

其中, $ {N_C} $ 为类别数量, $ {P_A} $ 为各类别的平均精度. 利用实验数据可绘制模型的PR曲线, 曲线所围面积即为AP, 该指标被用来评估模型对于单个类别的目标检测性能表现, 将所有类别的AP值取平均就得到了mAP. mAP的值在0–1之间, mAP值越接近于1表示模型的性能越好, 检测能力越强.

3.4 实验结果与分析 3.4.1 人脸瑕疵数据集实验分析

为验证本文算法的有效性, 基于人脸瑕疵数据集, 选择YOLOv3、RetinaNet[22]、CornerNet[23]和YOLOv5作为对比网络模型. 实验结果如表2所示. 由表2可知, BCF-YOLOv5在单类AP上和mAP两个指标上, 都远高于YOLOv3、RetinaNet和CornerNet. 与原始YOLOv5对比, 各类AP均有一定的提升, 在mAP上提高7.26%, 证明了BCF-YOLOv5模型对于小目标具有更强的检测能力. YOLOv5和BCF-YOLOv5在人脸瑕疵数据集上的mAP曲线如图8所示. 在图9中本文展示了一些人脸瑕疵图片的检测结果图片, 可以看出本文算法对人脸瑕疵可以达到较好的检测效果.

表 2 人脸瑕疵数据集实验结果 (%)

图 8 mAP曲线(横坐标表示epoch, 纵坐标表示mAP@0.5)

图 9 BCF-YOLOv5在人脸瑕疵测试集上的一些检测结果

3.4.2 VisDrone2019无人机数据集实验分析

为保证实验的严谨性与可对比性, 本文实验参考文献[24]的实验设置, 在VisDrone2019上分别验证了YOLOv3、YOLOv5和BCF-YOLOv5, 同时取文献[24]中BetterFPN和RRNet的实验结果进行对比, 对比结果如表3所示.

表3可知, BCF-YOLOv5在mAP指标上远高于YOLOv3、BetterFPN和RRNet, 较YOLOv5提高1.63%, 实验结果表明了BCF-YOLOv5模型在小目标数据集上的有效性以及在不同数据集上也具有较强的泛化能力. BCF-YOLOv5在VisDrone2019数据集上训练的混淆矩阵如图10所示. 图11展示了VisDrone2019数据集的一些检测可视化结果.

表 3 VisDrone2019无人机数据集实验结果

3.5 消融实验

本节基于人脸瑕疵数据集, 通过消融实验探究每个新增或改进模块对于整体模型的提升效果. 以原始YOLOv5为基础, 依次增加各模块进行实验, 表4列出了实验结果.

表4可知, 增加P2层检测头对于模型的提升较大, mAP提升1.71%, 说明增加高分辨率检测头可以有效增强对于微小目标的检测能力. 同时可以发现, 单独增加CBAM和BiFPN模块对于模型的提升较为一般, mAP分别提升0.98%和1.66%, 同时增加两个模块时, mAP提升5.55%, 说明主干网络特征提取的质量对颈部网络的特征融合产生了较大影响, CBAM注意力模块有效提升了模型的特征提取能力, 结合BiFPN网络的特征融合, 有效提升了模型的检测性能.

图 10 VisDrone2019数据训练混淆矩阵

图 11 BCF-YOLOv5在VisDrone2019数据测试集上的一些检测结果

表 4 BCF-YOLOv5消融实验结果

4 结论与展望

针对小目标难以检测的问题, 本文提出了一种改进的YOLOv5检测模型, 在主干网络中添加CBAM注意力模块, 提高网络的特征提取能力; 在颈部网络部分将PANet网络结构替换成BiFPN, 强化底层特征利用; 最后在检测头部分增加一个高分辨率检测头用于检测尺寸过小的目标, 有效提高了对模型对于小目标的检测精确度. 本文在人脸瑕疵数据集和VisDrone2019无人机数据集上做了多组对比实验, 在mAP上均得到了一定提升, 证明了本文方法的有效性. 不过, 由于模型中增加了额外的检测头, 同时使用concat特征融合, 增加了模型的大小, 后续工作就致力于提升检测精度的同时减小模型大小.

参考文献
[1]
Wu XW, Sahoo D, Hoi SCH. Recent advances in deep learning for object detection. Neurocomputing, 2020, 396: 39-64. DOI:10.1016/j.neucom.2020.01.085
[2]
Singh B, Najibi M, Davis LS. SNIPER: Efficient multi-scale training. Proceedings of the 32nd International Conference on Neural Information Processing Systems. Montréal: Curran Associates Inc., 2018. 9333–9343.
[3]
Krizhevsky A, Sutskever I, Hinton GE. ImageNet classification with deep convolutional neural networks. Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe: Curran Associates Inc., 2012. 1097–1105.
[4]
Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation. 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014. 580–587.
[5]
Girshick R. Fast R-CNN. 2015 IEEE International Conference on Computer Vision (ICCV). Santiago: IEEE, 2015. 1440–1448.
[6]
Ren SQ, He KM, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks. Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal: MIT Press, 2015. 91–99.
[7]
Lin TY, Dollár P, Girshick R, et al. Feature pyramid networks for object detection. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: IEEE, 2017. 936–944.
[8]
Liu W, Anguelov D, Erhan D, et al. SSD: Single shot MultiBox detector. Proceedings of the 14th European Conference on Computer Vision. Amsterdam: Springer, 2016. 21–37.
[9]
Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection. 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016. 779–788.
[10]
Redmon J, Farhadi A. YOLO9000: Better, faster, stronger. 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017. 6517–6525.
[11]
Redmon J, Farhadi A. YOLOv3: An incremental improvement. arXiv:1804.02767, 2018.
[12]
Song XY, Gu W. Multi-objective real-time vehicle detection method based on YOLOv5. 2021 International Symposium on Artificial Intelligence and its Application on Media (ISAIAM). Xi’an: IEEE, 2021. 142–145.
[13]
Sruthi MS, Poovathingal MJ, Nandana VN, et al. YOLOv5 based Open-Source UAV for Human Detection during Search and Rescue (SAR). 10th International Conference on Advances in Computing and Communications. Kochi: IEEE. 2021. 1–6.
[14]
Dong X, Xu NN, Zhang LY, et al. An improved YOLOv5 network for lung nodule detection. 2021 International Conference on Electronic Information Engineering and Computer Science (EIECS). Changchun: IEEE, 2021. 733–736.
[15]
Zhu XK, Lyu SC, Wang X, et al. TPH-YOLOv5: Improved YOLOv5 based on Transformer prediction head for object detection on drone-captured scenarios. Proceedings of the IEEE International Conference on Computer Vision. Online: IEEE. 2021. 2778–2788.
[16]
Woo S, Park J, Lee JY, et al. CBAM: Convolutional block attention module. Proceedings of the 15th European Conference on Computer Vision. Munich: Springer, 2018. 3–19.
[17]
Bai HY, Wen S, Chan SHG. Crowd counting on images with scale variation and isolated clusters. 2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW). Seoul: IEEE, 2019. 18–27.
[18]
Tan MX, Pang RM, Le QV. EfficientDet: Scalable and efficient object detection. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020. 10778–10787.
[19]
Liu S, Qi L, Qin HF, et al. Path aggregation network for instance segmentation. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018. 8759–8768.
[20]
Zhao QJ, Sheng T, Wang YT, et al. M2Det: A single-shot object detector based on multi-level feature pyramid network. Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Honolulu: AAAI, 2019. 9259–9266.
[21]
Ghiasi G, Lin TY, Le QV. NAS-FPN: Learning scalable feature pyramid architecture for object detection. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019. 7029–7038.
[22]
Lin TY, Goyal P, Girshick R, et al. Focal loss for dense object detection. 2017 IEEE International Conference on Computer Vision. Venice: IEEE, 2017. 2999–3007.
[23]
Law H, Deng J. CornerNet: Detecting objects as paired keypoints. Proceedings of the 15th European Conference on Computer Vision. Munich: Springer, 2018. 765–781.
[24]
Zhu PF, Wen LY, Du DW, et al. Detection and tracking meet drones challenge. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 1-1. DOI:10.1109/TPAMI.2021.3119563