基于Yolopose的挖掘机检测与工作状态识别
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

陕西省重点研发计划(2023-YBGY-255)


Excavator Detection and Working State Discrimination Based on Yolopose
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对光缆、高压油气管道等地下基础设施周边容易受到挖掘机的野蛮入侵问题. 本文提出了一种结合Yolopose和多层感知机的挖掘机检测与工作状态判别方法. 首先, 设计了基于Yolopose的挖掘机6点姿势的提取网络Yolopose-ex; 其次, 利用Yolopose-ex模型提取视频中挖掘机工作姿态的变化信息, 构建了挖掘机的工作状态特征向量(MSV); 最后, 利用深度学习算法多层感知机(multilayer perceptron, MLP)分析了视频中的挖掘机的工作状态. 实验结果表明, 所提出的方法克服了复杂背景难以识别的问题, 对挖掘机工作状态识别准确率达到了96.6%, 具有较高的推理速度和泛化能力.

    Abstract:

    The surrounding areas of underground infrastructure such as optical cables and high-pressure oil and gas pipelines are vulnerable to brutal invasion by excavators. This study proposes an excavator detection and working state discrimination method combined with Yolopose and a multilayer perceptron. First, the Yolopose-ex extraction network based on Yolopose’s six-point posture of the excavator is designed. Secondly, the Yolopose-ex model is utilized to extract the change information of the excavator’s working posture in the video, and the working state feature vector (MSV) of the excavator is constructed. Finally, the multilayer perceptron (MLP) is adopted to analyze the working status of the excavator in the video. The experimental results show that the proposed method overcomes the problem of difficult discrimination of complex backgrounds, and the accuracy of the identification of the working state of the excavator reaches 96.6%, which has a high reasoning speed and generalization ability.

    参考文献
    相似文献
    引证文献
引用本文

黄健,赵小飞,王虎,胡其胜.基于Yolopose的挖掘机检测与工作状态识别.计算机系统应用,2024,33(2):299-307

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2023-07-12
  • 最后修改日期:2023-08-11
  • 录用日期:
  • 在线发布日期: 2024-01-02
  • 出版日期: 2023-02-05
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号