基于Kinect的实物地质标本三维重建
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

国家自然科学基金(61372174);四川大学研究生课程建设项目(2016KCJS5113)


3D Reconstruction of Physical Geological Specimen Based on Kinect
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    基于多视点图像运动结构恢复的三维重建方法相当耗时且鲁棒性低,针对以上问题,提出了一种基于Kinect的实物地质标本的三维重建方法. 首先使用GrabCut算法提取前景目标,结合原始深度图像生成对应视角的点云,再基于SIFT特征利用RANSAC算法执行点云粗对准,然后在ICP算法中引入异常值拒绝方法和动态调整权重思想进行点云精细配准,最终重建出完整三维点云模型. 实验结果表明该方法能快速重建出良好的实物地质标本三维点云模型,能有效处理标本缺少结构特征的情况,并且鲁棒性高.

    Abstract:

    The three-dimensional reconstruction method based on multi-view image motion structure restoration is quite time-consuming and has little robustness. Aiming at these issues, a new three-dimensional reconstruction method for physical geological specimen based on Kinect is proposed in this paper. First, the GrabCut algorithm is used to extract the foreground objects, combining with the original depth images to generate the point cloud corresponding point of view. Then, it uses RANSAC algorithm to perform point cloud alignment crudely based on the SIFT feature. Next, the ICP algorithm is improved by introducing the methods of rejecting outliers and adjusting the weight dynamically to perform fine registration of point cloud. Finally, a complete three-dimensional point cloud model is constructed. The experimental results demonstrate that the proposed method can reconstruct the three-dimensional point cloud of physical geological specimen quickly, excellently and robustly. When the specimens lack structural features, the proposed method can handle it effectively.

    参考文献
    相似文献
    引证文献
引用本文

喻芹,何小海,滕奇志,杨小鹏.基于Kinect的实物地质标本三维重建.计算机系统应用,2017,26(12):244-249

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2017-03-14
  • 最后修改日期:2017-03-31
  • 录用日期:
  • 在线发布日期: 2017-12-07
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号