摘要:视觉重定位一直是三维视觉领域广泛讨论的问题, 该问题解决在给定先验地图的情况下, 估计出查询图像的6DOF相机位姿. 在大规模室内环境中进行重定位是增强现实和机器人导航等应用的关键, 然而当相机移动时, 场景外观会快速变化, 这对重定位系统来说非常具有挑战性. 为了解决这个问题, 本文提出了一种基于虚拟视图合成的方法, 旨在特定场景下, 丰富查询数据库并优化位姿估计. 与基于渲染真实图像的虚拟视图合成方法不同, 其无需高质量的三维模型. 本文方法选择直接渲染虚拟视点下的全局和局部特征, 并将它们分别应用于后续的图像检索和特征匹配操作. 所提方法可以在大规模室内环境中大幅提高重定位性能, 例如在InLoc数据集上取得了7.1%和12.2%的提升.