基于Ghost卷积和YOLOv5s网络的服装检测
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

陕西省教育厅科研计划(21JP049); 西安工程大学研究生创新基金(chx2021026); 大学生创新创业训练计划(S202110709112)


Clothes Detection Using Ghost Convolution and YOLOv5s Network
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    为了降低服装目标检测模型的参数量和浮点型计算量, 提出一种改进的轻量级服装目标检测模型——G-YOLOv5s. 首先使用Ghost卷积重构YOLOv5s的主干网络; 然后使用DeepFashion2数据集中的部分数据进行模型训练和验证; 最后将训练好的模型用于服装图像的目标检测. 实验结果表明, G-YOLOv5s的mAP达到71.7%, 模型体积为9.09 MB, 浮点型计算量为9.8 G FLOPs, 与改进前的YOLOv5s网络相比, 模型体积压缩了34.8%, 计算量减少了41.3%, 精度仅下降1.3%, 方便部署在资源有限的设备中使用.

    Abstract:

    To reduce the number of parameters and floating points operations of the object detection model for clothes, we propose an improved object detection model for lightweight clothes, namely G-YOLOv5s. First, the Ghost convolution is used to reconstruct the backbone network of YOLOv5s, and then the data in the DeepFashion2 dataset is employed for model training and validation. Finally, the trained model is applied to the detection of clothes images. The experimental results show that the G-YOLOv5s algorithm achieves the mean average precision (mAP) of 71.7%, with a model volume of 9.09 MB and the floating point operations of 9.8 G FLOPs. Compared with those of YOLOv5s, the model volume of G-YOLOv5s is compressed by 34.8%, and the floating point operations are reduced by 41.3%, with an mAP drop of only 1.3%. Moreover, it is convenient for deployment in equipment with limited resources.

    参考文献
    相似文献
    引证文献
引用本文

李雪,吴圣明,马丽丽,陈金广.基于Ghost卷积和YOLOv5s网络的服装检测.计算机系统应用,2022,31(7):203-209

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2021-10-17
  • 最后修改日期:2021-11-17
  • 录用日期:
  • 在线发布日期: 2022-05-30
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号