2. 广东石油化工学院 自动化学院, 茂名 525000
2. School of Automation, Guangdong University of Petrochemical Technology, Maoming 525000, China
随着人工智能和深度学习思想的普及, 毫无疑问, 目标检测作为CV领域核心问题. 无论是在理论还是应用都进展飞速, 并广泛应用到了社会生活的各个方面, 诸如智能交通[1]、医疗辅助[2,3]、人像识别[4]、工业自动化[5]、运动识别[6]等. 通过结合图像处理和深度学习等理论, 在图像中随机定位特定区域, 通过定位找出输入图像中目标物体的位置信息并确定目标框大小, 利用分类判断目标物体的类别. 且毫无疑问, 做好目标检测是实现目标跟踪, 场景理解, 事件检测等进阶视觉任务的首要任务.
现阶段目标检测的对象, 主要分为静态图像和动态视频. 视频目标检测以图像检测的理论为基石, 利用循环神经网络提取时序信息, 最后实现目标检测任务. 文献[7]总结罗列了近几年提出的诸多应用于静态图片的图像识别算法. 文献[8]总结罗列了这几年来的应用于视频文件的图像识别算法.
按目标检测算法的检测原理分类, 主要有两类: (1)两阶段检测器, 诸如SPPNET、R-CNN[9]及其改进版[10-12]. (2)一阶段检测器, 主要是SSD[13]、YOLO系列[14]及其改进[15,16]. 两阶段精度稍高但速度略慢. 两阶段检测器的第1阶段先找出可能包含目标物体的建议框, 第2阶段对建议框进行分类, 进行预测; 一阶段检测器无须寻找建议框阶段, 直接确定物体的类别概率和位置坐标值, 经过单次检测即可直接得到最终的检测结果, 模型小、速度快、更具实用性.
近几年来, 因为YOLOv5既能满足实时性要求, 且能保持较高的检测精度, 使得其被广泛应用于各个领域. 且基于不同的操作环境和检测任务, 还可以选用不同模型大小的YOLOv5. 其中YOLOv5s更因为其低计算量与高性能, 成为轻量化的理想候选者.
伴随着日益增长的移动端部署需求以及检测场景的多样性, 轻量化深度神经网络的要求迫在眉睫. 各种优秀的卷积网络的理论, 诸如VGG[17]、ResNet[18]、DSC卷积[19]等, 都被融合到轻量化的网络中, 用来更有效的提取目标特征以及提升网络效率.
MobileNetV1[20]结合深度可分离卷积的思想, 通过超参数使模型快速调节以适应特定的工作环境. 将其模型与时下主流的模型对比, 在模型大小和速度上, MobileNet都展现出了极强优越性. MobileNetV2[21]在MobileNetV1的基础上, 融合ResNet的思想, 提出倒残差的架构, 并使用一个线性的激活函数避免特征损失. 进一步降低模型大小, 且提升了准确率.
GhostNet[22]发表于CVPR2020上的新颖的端侧神经网络, 通过组合少量卷积核与更廉价的线性变化操作代替常规卷积方式, 有效地改善了特征提取效率. 最近, 清华大学、旷视科技等机构的研究者在CVPR2022上提出了超大卷积核架构RepLKNet[23], 利用少量大卷积核换取更大的感受野, 弥补了深层小卷积核模型有效感受野局限的缺陷.
文献[24-27]对YOLOv5模型做了改进, 一定程度上, 实现了轻量化, 却均没有用COCO、PASCAL VOC等一般数据集验证其性能. 文献[28]在YOLOv5上做了轻量化改进, 并用PASCAL VOC进行性能验证, 虽然降低了参数量, 计算量. 但是很大程度上, 牺牲了准确度和速度.
提高检测精度的代价是: 现代最先进的网络需要高计算资源, 超出了许多移动和嵌入式网络应用程序的能力. 为了解决YOLOv5s难以兼顾模型轻量化与模型检测精度以及对边界框的回归粗糙的问题. 本文对YOLOv5s进行改进, 提出YOLO-MLK (you only look once-mobile large kernel)目标检测算法用于移动端设备的目标检测任务, 主要贡献如下.
(1)轻量级网络骨干. 使用参数量和计算量更小、移动端目标检测速度更快的MobileNetV2为基本架构, 替代原本YOLOv5的网络骨干, 降低网络的计算量, 提升模型的运算效率.
(2)提出融合深度可分离大卷积的特征图金字塔模块LKL-PAN. 通过拆分空间维度和通道维度的相关性, 减少卷积计算所需的参数个数, 提升卷积核参数的使用效率. 使用大卷积高效直观地增加感受野, 避免小卷积核的低效堆叠, 减少采样过程带来的特征损失, 进一步提升检测速度和检测精度.
(3)优化激活函数. 引入SIoU激活函数, 增加检测框尺度的损失, 从而提升特征提取能力, 使得预测框更为精准, 进一步有提升网络的检测精度.
1 相关工作 1.1 YOLOv5YOLOv5是YOLO系列的经典算法. 按照其模型大小递增可分为s、m、l、x这4种, 所有模型均由输入端、Backbone、Neck、Head构成. 在输入端部分, 首先对图片进行预处理, 在网络训练阶段使用Mosaic技术进行数据增强、自适应锚框计算以及自适应图片缩放: 在Backbone部分, YOLOv5使用了改进的CSP-Darknet结构、Focus下采样结构作为基准网络, 搭配SPP空间金字塔池化层更有效地提取特征信息; Neck部分同样用到了SPP模块以及特征金字塔FPN+PAN模块, 实现细节与Backbone部分稍有不同, 进一步提升提取特征的多样性及鲁棒性. Head用于完成目标检测结果的输出. 不同算法, Head端的分支个数不同, 一般都有一个分类分支以及一个回归分支. YOLOv5的基本架构如图1所示.
![]() |
图 1 YOLOv5算法架构 Fig. 1 Architecture of YOLOv5 algorithm |
Conv2D 模块是复合卷积模块, 由卷积、BN层和激活函数组成, 是YOLOv5的最基础模块. BN层的目的是对数据做归一化处理, 防止训练网络的过程中出现梯度消失或爆炸.
Focus模块, 首先将得到的图片进行切片操作. 将RGB三通道上的值每隔一个像素取下, 切分成4张特征图, 相当于将高、宽信息压缩到通道空间, 使得输入通道扩充为原先的4倍. 减少信息丢失的同时, 提升了网络的效率.
CspLayer模块, 也常被称为C3模块. 特征图经过该模块会进入两个分支, 在一个分支中经过标准卷积层以及堆叠的Bottleneck模块; 另一分支中只经过一个标准卷积层, 最后将分别得到的特征图进行拼接. 该模块主要用于对残差特征进行学习.
SPP 模块为空间金字塔池化模块, 能够转换任意大小的特征图成为大小固定的特征向量. 当特征图经过SPP 模块时, 首先经过卷积层减少通道数, 接着经过3个分支, 使用3个不同大小的卷积核进行池化下采样, 最后按通道数将池化结果与原本的特征图拼接. 通道数较原来稍有扩大, 但有效地提升了感受野.
1.2 深度可分离卷积深度可分离卷积是改进标准卷积计算的算法, 其结构由逐通道卷积(depthwise convolution)和逐点卷积(pointwise convolution)组成.
逐通道卷积中, 每个通道的特征图都会通过一个卷积核进行卷积运算. 如图2前段部分所示, 此过程后, 得到的特征图的通道数与输入时的通道数一致.
![]() |
图 2 深度可分离卷积 Fig. 2 Depthwise separable convoltion |
逐点卷积与常规卷积的运算相似, 可以对特征图进行升维和降维操作, 其卷积核的尺寸为 1×1. 逐点卷积会将逐通道卷积取得的特征图在不同通道上进行加权组合, 生成最终的特征图.
深度可分离卷积通过转换空间维度和通道维度的信息, 提升卷积网络的效率, 降低卷积计算的参数量. 在检测任务中, 深度可分离卷积可以帮助模型有效降低计算量, 提高检测性能.
1.3 Ghost卷积Ghost卷积的核心思想是将一般卷积拆分. 如图3所示, Ghost卷积从少量非线性的卷积获取的特征上, 再使用线性卷积操作, 生成Ghost特征图. 接着将两段卷积得到特征图叠加, 得到更多通道数的特征图. 借此消除冗余特征, 轻量化模型计算.
![]() |
图 3 幽灵卷积 Fig. 3 Ghost convolution |
2 改进的YOLOv5算法 2.1 网络整体结构
本文对YOLOv5算法进行了改进, 改进后的YOLO-MLK模型网络结构如图4所示, 算法架构如表1所示. 首先, 使用轻量级网络MobileNetV2替代原本的骨干网络. 接着提出一种新的融合深度可分离大卷积的特征图金字塔网络LKL-PAN. 最后, 替换了网络的损失函数, 使用SIoU作为网络的损失函数.
![]() |
图 4 YOLO-MLK模型架构 Fig. 4 Architecture of YOLO-MLK algorithm |
表1中, MobileNetV2-1为MobileNetV2的1–3层, MobileNetV2-2的4和5层, MobileNetV2-3为Mobile-NetV2的6–9层, Upsample为上采样, Concat为数据拼接, SPPF为快速空间金字塔池化模块, C3为YOLOv5中的C3模块, DSConv为深度可分离卷积, GhostConv为幽灵卷积.
2.2 轻量化骨干网络骨干网络是目标检测任务的基本特征提取器, 优质的骨干网络能够提取丰富的特征, 降低目标检测任务的复杂性, 提高目标检测网络的性能. YOLOv5的骨干网络为CSPDarknet53, 相比与YOLOv4的骨干网络具有参数量更小, 检测速度更快, 特征提取效率更高的优点. 但是CSPDarknet53并不能很好地适应移动端设备, 参数量、计算量和特征提取仍有提升的空间. 受目标检测网络模型轻量化的思想启发, 本文选取MobileNetV2替代YOLOv5中的CSPDarknet作为目标检测网络的骨干网络, 降低模型的计算量和计算量, 提高模型的特征提取效率, 模块组成如表2所示. 其中, Input表示输入的特征图大小, Operator表示执行相应的操作, t表示瓶颈层内部升维的倍数, c表示输出特征的维数, n表示该瓶颈层重复的次数,s表示瓶颈层第1个卷积操作的步幅, Conv2D表示标准卷积模块, Bottle-neck表示瓶颈层模块, avgpool 表示平均池化操作.
![]() |
表 1 YOLO-MLK算法的架构 Table 1 Architecture of YOLO-MLK algorithm |
![]() |
表 2 MobileNetV2算法的架构 Table 2 Architecture of MobilenetV2 algorithm |
相比于MobileNetV1网络, MobileNetV2网络优化了瓶颈层(Bottleneck)的结构, 提高网络的特征提取效率和能力. MobileNetV2的瓶颈层使用了倒残差结构和线性瓶颈层的思想, 其由扩展层、逐通道层和投影层构成, 如图5所示.
![]() |
图 5 MobileNetV2的Bottleneck Fig. 5 Bottleneck of mobilenetV2 |
每个瓶颈层首先在扩展层使用1×1卷积将低维特征映射到高维空间, 并通过ReLU6激活函数激活. 然后经过逐通道层时, 使用3×3的逐通道卷积将高维特征映射到高维空间, 提取到足够多的整体信息, 并通过ReLU6函数激活. 最后经过投影层时, 使用1×1的普通卷积, 将高维特征映射回低维空间去, 并使用线性函数激活, 可以有效防止高维特征映射到低维空间时丢失提取出的特征. 这样的瓶颈层结构可以保证在进行残差连接的时候, 相互连接的都是低维度的, 来减少计算量.
2.3 融合深度可分离大卷积的特征图金字塔模块FPN能够融合不同层的特征信息, 基本不增加模型计算量, 且能有效提升目标检测的性能. 尽管FPN只提出了短短几年, 却已被广泛用于机器视觉领域, 用于不同尺度的特征融合. 越来越多的多尺度特征融合网络被提出, 诸如NAS-FPN、M2det以及PANet等, 都展现出了优异的效果.
自底向上的前向传播结构和自顶而下的上采样结构, 通过横向连接进行路径整合, 使得YOLOv5中的FPN+PAN具备了更优的多尺度融合结果. 但其劣势也十分明显, 模型结构更加冗余复杂, 从而使得特征主干网络的原始输出特征无法被有效地提取.
深度可分离大卷积通过直观地增加目标检测任务的感受野, 避免了小卷积核不断堆叠的低效陷阱, 并且深度可分离通过对普通卷积进行纵向和横向的解耦, 降低参数量与计算量, 提升了卷积的效率. Ghost卷积首先利用少量的卷积核对输入特征图进行特征提取, 然后进一步地对这部分特征图进行更价廉的线性变化运算, 最后通过Concatenation (拼接操作)生成最终的特征图. 这个方法减少了非关键特征的学习成本: 即通过组合少量卷积核与更廉价的线性变化操作代替常规卷积方式, 从而有效降低对计算资源需求的同时, 并不影响模型的性能.
为此, 提出了一种简单但高效的融合深度可分离大卷积与Ghost卷积的特征图金字塔网络, 称为LKL-PAN (large kernel lightweight aggregation network).
LKL-PAN使用深度可分离卷积结合大卷积并结合Ghost卷积对颈部网络进行了改进, 在PAN部分使用深度可分离卷积结合大核卷积的思想直接提升了目标的感受野, 并且对算法的参数量与计算量进行控制, 其结构如图6所示.
提出的特征图金字塔网络具体实施过程如下.
(1)使用卷积核大小为13×13深度可分离大卷积替换原本的FPN结构中下采样阶段卷积, 以此扩大特征提取有效感受野, 避免了小卷积核不断堆叠的低效陷阱, 提升网络的特征提取能力.
(2)使用3×3 Ghost卷积替换原本PAN结构上采样阶段卷积, 从而实现轻量化特征提取网络. Ghost卷积使用少量的卷积核对输入特征图进行特征提取, 通过更价廉的线性变化运算并使用拼接操作生成最终的特征图, 减少了非关键特征的学习成本.
![]() |
图 6 LKL-PAN结构 Fig. 6 Structure of LKL-PAN |
如何合理选择深度可分离大卷积核的尺度, 从而提取更有效的特征? 在综合考虑模型参数量与计算量后, 本文选择使用卷积核大小为21、13和7的深度可分离卷积替代Neck中下采样的阶段的普通卷积, 并在VOC数据集上使用mAP@0.5这个指标来衡量模型的效果.
卷积核组合表示两个下采样阶段的深度可分离卷积的卷积核大小, 参数量表示模型总体参数量大小, 计算量表示模型总体计算量大小, mAP@0.5表示预测精度.
从表3可知, 使用21+13的卷积核组合效果最好, 但模型参数量较大. 使用13+13的卷积核组合效果与21+21的卷积核组合精度排并列第二. 综合考虑模型的参数量、计算量与预测精度后, 本文最终选择13+13的卷积核组合.
![]() |
表 3 不同尺度深度可分离大卷积核实验 Table 3 Experiment on depthwise separable large convolution with different kernel sizes |
2.4 损失函数
YOLOv5中的损失函数一共由3部分组成, 分别是分类损失、定位损失、置信度损失. 分类损失用于评估预测框及对应分类的正确程度; 定位损失用来表示预测框与真实目标框两者间的误差大小; 置信度损失表示锚框中目标物体是否存在的条件损失.
CIoU损失函数考虑了检测框尺度和检测框长和宽的loss, 这使预测框更加的符合真实框. 但未解决检测框纵横比描述使用的是相对值, 且CIoU损失函数中并没有考虑检测框的角度问题, 这也会影响模型在训练过程中的回归.
为减小上述CIoU损失函数在实际应用中暴露的问题, 本研究采用了SIoU损失函数.
SIoU在CIoU的基础上通过计算检测框宽高的差异值取代了纵横比, 解决了检测框纵横比描述使用的是相对值的问题, 优化预测框的大小的确定. 并考虑了检测框角度损失对于确定最终预测框的影响, 使得预测框位置更加准确, 也优化模型在训练过程中的回归. SIoU损失函数包含4个部分: 形状损失、
LSIoU=1−IoU+Δ+Ω2 | (1) |
其中,
Δ=∑t=x,y(1−e−γρt) | (2) |
Λ=1−2×sin2(arcsin(x)−π4) | (3) |
x=Chσ=sin(α) | (4) |
其中,
![]() |
图 7 SIoU角度损失示意图 Fig. 7 Schematic diagram of angle loss of SIoU |
3 实验与结果分析 3.1 数据集 3.1.1 PASCAL VOC数据集
PASCAL VOC (the PASCAL visual object classes)是世界闻名的CV挑战赛. 本研究选取了PASCAL VOC 2007和2012 (即VOC 2007+VOC 2012)数据集进行实验, 整个数据集总共包含4大类和20小类. 训练集部分, 选用了VOC 2007以及VOC 2012数据集的train 和val部分, 总共包含图片16551 张; 测试集部分, 选用VOC 2007数据集的test部分, 总共包含图片4 952张. 图8是数据可视化分析.
![]() |
图 8 VOC数据集可视化分析 Fig. 8 Data visualization analysis of VOC dataset |
3.1.2 COCO数据集
MS COCO (Microsoft common objects in context)是机器视觉领域最权威和关注度最高的的比赛之一. 该数据集主要从复杂的日常场景中截取, 是同时可用于语义分割, 图像标题生成和图像检测的大型数据集. 作为目前有语义分割的数据集, 其中收录了超过330k张图像(其中超200k张已标注过), 目标数超150万个, 80个目标类别(object categories: 火车、船、猫等), 91种无明确边界的材料类别(stuff categories: 街道、墙、天空等)以及带关键点标注的25万个行人影像. 以下是COCO数据集的数据可视化分析, 如图9所示.
3.1.3 网络设置与训练实验所使用硬件配置如表4所示.
在网络训练前, 把数据集设置为训练集、验证集和测试集. 实验总迭代设置为300次, 前3次迭代用作预训练, 学习率调整采用梯度下降(SGD)策略. 预热结束, 采用余弦退火策略. 网络训练中, batch_size的参数调整为8. 训练完YOLOv5模型后, 接着训练YOLO-MLK模型, 将YOLOv5的部分权重转移到YOLO-MLK上, 可节省大量的训练时间. 同上, 实验总迭代300次, 其他参数保持一致.
![]() |
图 9 COCO数据集可视化分析 Fig. 9 Data visualiation analysis of COCO dataset |
![]() |
表 4 实验硬件配置 Table 4 Experimental hardware configuration |
3.2 评价指标与实验结构分析 3.2.1 评价指标
为验证算法的性能, 本研究选用了几项目标检测中常用的评价标准, 参数量, 模型大小, 计算量, mAP@0.5来衡量本文提出的YOLO-MLK算法模型.
模型大小, 参数量和计算量用作衡量模型的复杂程度和网络的深度, mAP@0.5主要体现神经网络的检测能力是否准确. mAP@0.5:0.95要求更高的IoU阈值, 在准确召回的基础上, 用于衡量目标定位效果和边框回归的是否精准. 平均精度均值mAP中的P-R曲线, 即平均精度AP. 计算公式如下.
(1)精确率(P)和召回率(R):
P=TPTP+FP⋅100% | (5) |
R=TPTP+FN⋅100% | (6) |
其中, TP(true positives)代表被准确识别出的目标数, FP(false positives)代表错检的目标数, FN(false negatives)表示未被检出的目标数.
(2)平均精度和平均精度均值:
AP=∫10P(R)dR | (7) |
mAP=∑PANc | (8) |
其中, Nc表示检测目标类别的数量, PA表示单个类别计算出的平均精度. 模型的P-R曲线可由得到的实验数据绘制, 曲线的面积即为AP值. mAP表示全部目标类别的AP取平均值的结果. mAP值越高, 越趋近于1. 表示神经网络的识别能力越强.
3.2.2 VOC数据集实验分析为了验证本文所提算法YOLO-MLK的网络性能, 选取了YOLOv3、YOLOv5s、YOLOv5-MobileNetV3-Large、YOLOv4-MobileNetV2、YOLOv4-MobileNetV3-Large、YOLOv4-EEEA-Net-C2、SSD、Faster、Cascade等模型在VOC数据集上进行对比. 实验结果如表5所示. 可见, YOLO-MLK不仅模型的复杂度更小, 在精度上亦优势明显. 其mAP@0.5是对比的众多模型中最优的.
![]() |
表 5 VOC数据集实验分析 Table 5 Experimental analysis of VOC dataset |
与参数量更大, 计算量相近YOLOv5-MobileNetV3-Large相比, YOLO-MLK在mAP@0.5上有1.4个百分点的提升. 与基于YOLOv4框架的MobileNetV2、MobileNetV3-Large、EEEA-Net-C2轻量级主干目标检测算法对比, YOLO-MLK无论在参数量还是检测精度方面都具明显优势. 与YOLOv5s对比, 参数量mAP@0.5上提高1.1%. 在计算量这个指标上, YOLO-MLK也是优于众多目标检测算法. YOLO-MLK优化了模型的时间、空间复杂度, 且明显提升了检测精度. 并使其对硬件需求更低, 更适用于成本相对较低的工业检测问题.
3.2.3 COCO数据集实验分析为了进一步验证YOLO-MLK的网络性能, 将其与YOLOv5s、SSD、YOLOX-Tiny、YOLOv6-N、YOLOv7-Tiny等进行比较, 实验结果如表6所示. 显而易见, YOLO-MLK在mAP@0.5:0.95值上, 优于其他目标检测算法. 在与原始YOLOv5对比中, YOLO-MLK算法在模型参数量和计算量显著降低的情况下, mAP@0.5:0.95提升了0.3%. 在与最新的YOLOv7-Tiny算法的对比中, YOLO-MLK在模型计算量明显降低更有优势, 并且mAP@0.5:0.95略高. 这证明了YOLO-MLK具备更优越的检测能力.
![]() |
表 6 COCO数据集实验分析 Table 6 Experimental analysis of COCO dataset |
3.3 定性评价
本研究选取了5组VOC测试集中的目标图片对YOLOv5-MobileNetV3-Large、YOLOv5s、YOLOv4- EEEA-Net-C2和YOLO-MLK的检测效果进行定性评价, 对比结果如图10所示.
![]() |
图 10 其他算法与本文算法效果对比图 Fig. 10 Effect comparison of other algorithms and YOLO-MLK |
在第1组先验目标较少的实验图片中, 其他的模型均出现一定程度的遗漏目标的情况, 而YOLO-MLK准确无误地识别出了所有目标. 在第2组目标较为多, 且有明显遮挡情况的实验图片中, YOLOv5-MobileNetV3-Large中出现了大量很大程度的漏检, YOLOv4-EEEA-Net-C2在大量漏检的情况下, 还出现了错检. YOLOv5s中的漏检相对改善. YOLO-MLK检测出了更多的正确目标, 表现出了更优越检测性能. 在第3组目标密集但并无遮挡的实验图片中, 其他的算法模型均出现了不同程度的错检, 而YOLO-MLK准确鉴别出所有目标, 且无错检与漏检的情况出现. 在第4组实验图片的目标数较少, 但有部分位于图像边缘且类别特征并不完整的目标. YOLOv5-MobileNetV3-Large、YOLOv4-EEEA-Net-C2、YOLOv5s均有边缘目标未被识别的情况发生, YOLO-MLK明显改善了边缘目标的漏检情况. 第5组实验图片中的目标较多, 大中小目标均存在, YOLOv5-MobileNetV3-Large、YOLOv5s、YOLOv4-EEEA-Net-C2在小目标和中等目标的检测中, 都出现了漏检, 而YOLO-MLK明显改善了这种情况. 总的来说, YOLO-MLK在与其他一些主流轻量化模型对比中, 对小目标的检测能力更出众, 漏检、错检率减低, 检测精度明显提升. 证明YOLO-MLK更有效的提取了语义信息, 从而表现出来更优秀的检测能力.
3.4 消融实验为了探究单个改进模块对整体算法的提升效果, 本节基于VOC数据集进行了消融实验. 首先用原始YOLOv5s算法为基础, 接着依次进行了7项消融实验, 表7列出了消融实验的结果. 其中, MobileNetV2代表MobileNetV2轻量级骨干网络, LKL-PAN代表本文提出的特征提取金字塔结构, SIoU代表本文所使用的改进损失函数.
如表7所示, 用MobileNetV2替代原YOLOv5网络主干, 模型参数量增加了1.41%, 计算量减少了22.98%, mAP@0.5值上升0.2%. 证明MobileNetV2主干网络, 大幅减低计算量的同时, 在特征提取能力方面也有提升; 在引入LKL-PAN模块的情况下, 模型的参数量减少了9.86%, 计算量下降3.73%, mAP@0.5提升0.7%. 显然LKL-PAN相较原本的FPN+PAN模块, 在参数量下降的同时, 其颈部网络的特征提取与融合亦有明显提升, 从而有效提升了模型的检测效率; 在引入SIoU损失函数的情况下, mAP@0.5提升了0.3%. 证明SIoU很大程度上, 缓解了真实框与预测框之间不匹配的问题. 最终YOLO-MLK相较YOLOv5s, 模型参数量减少了2.82%, 计算量下降24.84%, mAP@0.5提升0.7%. YOLO-MLK算法加强了对目标框的拟合能力, 且对硬件的要求更低. 更适用于对IoU值要求更高, 检测精度更高的检测任务中.
![]() |
表 7 消融实验 Table 7 Ablation experiment |
4 实验与结果分析
针对移动端检测任务需求的日益增长, 以及其有限的硬件配置问题, 本研究提出了一种改进的轻量化模型YOLO-MLK. 采用MobileNetV2网络作为骨干网络, 实现模型计算量的轻量化; 采用LKL-PAN结构, 对颈部网络进行轻量化, 并获取更大且有效的感受野, 提升特征提取能力; 引入SIoU损失函数, 缓解真实框与预测框之间不匹配的问题, 提升目标框拟合能力, 减小检测框损失, 获取更为准确的预测框.
本研究在VOC数据集和COCO数据集上做了多组对比实验, 减少模型了参数量、计算量, mAP也得到了明显提升, 证明了YOLO-MLK的有效性. 为了轻量化神经网络算法, 降低模型复杂度, 从而满足移动端需求. 后续工作将对网络进行剪枝、蒸馏操作; 增加检测头, 提升对小目标的特征提取能力; 改进头部网络的上采样结构, 更高效地提取特征, 提升检测精度.
[1] |
Zhang LL, Lin L, Liang XD, et al. Is Faster R-CNN doing well for pedestrian detection? Proceedings of the 14th European Conference on Computer Vision. Amsterdam: Springer, 2016. 443–457.
|
[2] |
Liu Y, Ma Z, Liu XM, et al. Privacy-preserving object detection for medical images with Faster R-CNN. IEEE Transactions on Information Forensics and Security, 2019, 17: 69-84. |
[3] |
Jaeger PF, Kohl SAA, Bickelhaupt S, et al. Retina U-Net: Embarrassingly simple exploitation of segmentation supervision for medical object detection. Proceedings of the 2020 Machine Learning for Health Workshop. Vancouver: PMLR, 2020. 171–183.
|
[4] |
Najibi M, Samangouei P, Chellappa R, et al. SSH: Single stage headless face detector. Proceedings of the 2017 IEEE International Conference on Computer Vision. Venice: IEEE, 2017. 4885–4894.
|
[5] |
李成严, 马金涛, 赵帅. 基于空间域注意力机制的车间人员检测方法. 哈尔滨理工大学学报, 2022, 27(2): 92-98. |
[6] |
Raghunandan A, Mohana, Raghav P, et al. Object detection algorithms for video surveillance applications. Proceedings of the 2018 International Conference on Communication and Signal Processing (ICCSP). Chennai: IEEE, 2018. 563–568.
|
[7] |
罗会兰, 陈鸿坤. 基于深度学习的目标检测研究综述. 电子学报, 2020, 48(6): 1230-1239. DOI:10.3969/j.issn.0372-2112.2020.06.026 |
[8] |
王迪聪, 白晨帅, 邬开俊. 基于深度学习的视频目标检测综述. 计算机科学与探索, 2021, 15(9): 1563-1577. DOI:10.3778/j.issn.1673-9418.2103107 |
[9] |
Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014. 580–587.
|
[10] |
Girshick R. Fast R-CNN. Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV). Santiago: IEEE, 2015. 1440–1448.
|
[11] |
Ren SQ, He KM, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks. Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal: MIT Press, 2015. 91–99.
|
[12] |
Lin TY, Dollár P, Girshick R, et al. Feature pyramid networks for object detection. Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: IEEE, 2017. 936–944.
|
[13] |
Lin W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector. Proceedings of the 14th European Conference on Computer Vision. Amsterdam: Springer, 2016. 21–37.
|
[14] |
Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection. Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016. 779–788.
|
[15] |
Redmon J, Farhad A. YOLO9000: Better, faster, stronger. Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017. 6517–6525.
|
[16] |
Redmon J, Farhadi A. YOLOv3: An incremental improvement. arXiv:1804.02767, 2018.
|
[17] |
Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition. Proceedings of the 3rd International Conference on Learning Representations. San Diego: ICLR, 2014.
|
[18] |
He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition. Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016. 770–778.
|
[19] |
Sifre L, Mallat S. Rigid-motion scattering for texture classification. arXiv:1403.1687, 2014.
|
[20] |
Howard AG, Zhu ML, Chen B, et al. MobileNets: Efficient convolutional neural networks for mobile vision applications. arXiv:1704.04861, 2017.
|
[21] |
Sandler M, Howard AG, Zhu ML, et al. MobileNetV2: Inverted residuals and linear bottlenecks. Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018. 4510–4520.
|
[22] |
Han K, Wang YH, Tian Q, et al. GhostNet: More features from cheap operations. Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020. 1577–1586.
|
[23] |
Ding XH, Zhang XY, Han JG, et al. Scaling up your kernels to 31×31: Revisiting large kernel design in CNNs. Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022. 11953–11965.
|
[24] |
彭成, 张乔虹, 唐朝晖, 等. 基于YOLOv5增强模型的口罩佩戴检测方法研究. 计算机工程, 2022, 48(4): 39-49. |
[25] |
杨小冈, 高凡, 卢瑞涛, 等. 基于改进YOLOv5的轻量化航空目标检测方法. 信息与控制, 2022, 51(3): 361-368. DOI:10.13976/j.cnki.xk.2021.1240 |
[26] |
林森, 刘美怡, 陶志勇. 采用注意力机制与改进YOLOv5的水下珍品检测. 农业工程学报, 2021, 37(18): 307-314. DOI:10.11975/j.issn.1002-6819.2021.18.035 |
[27] |
钱坤, 李晨瑄, 陈美杉, 等. 基于YOLOv5的舰船目标及关键部位检测算法. 系统工程与电子技术, 2022, 44(6): 1823-1832. DOI:10.12305/j.issn.1001-506X.2022.06.07 |
[28] |
邱天衡, 王玲, 王鹏, 等. 基于改进YOLOv5的目标检测算法研究. 计算机工程与应用, 2022, 58(13): 63-73. DOI:10.3778/j.issn.1002-8331.2202-0093 |