融合2D激光雷达的室内单目深度估计
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

科技创新特区计划(20-163-14-LZ-001-004-01)


Indoor Monocular Depth Estimation by Fusing 2D LiDAR
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    在室内单目视觉导航任务中, 场景的深度信息十分重要. 但单目深度估计是一个不适定问题, 精度较低. 目前, 2D激光雷达在室内导航任务中应用广泛, 且价格低廉. 因此, 本文提出一种融合2D激光雷达的室内单目深度估计算法来提高深度估计精度. 本文在编解码结构上增加了2D激光雷达的特征提取, 通过跳跃连接增加单目深度估计结果的细节信息, 并提出一种运用通道注意力机制融合2D激光雷达特征和RGB图像特征的方法. 本文在公开数据集NYUDv2上对算法进行验证, 并针对本文算法的应用场景, 制作了带有2D激光雷达数据的深度数据集. 实验表明, 本文提出的算法在公开数据集和自制数据集中均优于现有的单目深度估计.

    Abstract:

    The depth information of a scenario is very important in indoor monocular vision navigation tasks. However, monocular depth estimation is an ill-posed problem with low accuracy. At present, 2D LiDAR is widely used in indoor navigation tasks, and the price is low. Therefore, we propose an indoor monocular depth estimation algorithm by fusing 2D LiDAR to improve the accuracy of depth estimation. Specifically, the feature extraction of 2D LiDAR is added to the encoder-decoder structure, and skip connections are used to acquire more detailed information of monocular depth estimation. Additionally, a method using channel attention mechanisms is presented to fuse 2D LiDAR features and RGB image features. The algorithm is verified on the public dataset NYUDv2, and a depth dataset with 2D LiDAR data for the application scenarios of the algorithm is established. Experiments indicate that the proposed algorithm outperforms the state-of-art monocular depth estimation on both public dataset and self-made dataset.

    参考文献
    相似文献
    引证文献
引用本文

杨瑞,朱明.融合2D激光雷达的室内单目深度估计.计算机系统应用,2022,31(9):382-388

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2021-12-24
  • 最后修改日期:2022-01-24
  • 录用日期:
  • 在线发布日期: 2022-06-16
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号