计算机系统应用  2019, Vol. 28 Issue (4): 176-182   PDF    
改进的跨尺度引导滤波立体匹配算法
杜晨瑞, 李英祥     
成都信息工程大学 通信工程学院, 成都 610225
摘要:作为双目三维重建中的关键步骤, 双目立体匹配算法完成了从平面视觉到立体视觉的转化. 但如何平衡双目立体匹配算法的运行速度和精度仍然是一个棘手的问题. 本文针对现有的局部立体匹配算法在弱纹理、深度不连续等特定区域匹配精度低的问题, 并同时考虑到算法实时性, 提出了一种改进的跨多尺度引导滤波的立体匹配算法. 首先融合AD和Census变换两种代价计算方法, 然后采用基于跨尺度的引导滤波进行代价聚合, 在进行视差计算时通过制定一个判断准则判断图像中每一个像素点的最小聚合代价对应的视差值是否可靠, 当判断对应的视差值不可靠时, 对像素点构建基于梯度相似性的自适应窗口, 并基于自适应窗口修正该像素点对应的视差值. 最后通过视差精化得到最终的视差图. 在Middlebury测试平台上对标准立体图像对的实验结果表明, 与传统基于引导滤波器的立体匹配算法相比具有更高的精度.
关键词: 立体匹配    匹配代价    多尺度    引导滤波    自适应窗口    
Improved Stereo Matching Algorithm Based on Cross-Scale Guided Filtering
DU Chen-Rui, LI Ying-Xiang     
School of Communication Engineering, Chengdu University of Information Technology, Chengdu 610225, China
Abstract: As a key step in binocular 3D reconstruction, the binocular stereo matching algorithm completes the transformation from planar vision to stereo vision. But how to balance the running speed and accuracy of the binocular stereo matching algorithm is still a difficult problem. In this study, focused on that existing local stereo matching algorithm has low matching accuracy in specific regions such as weak texture and depth discontinuity, while considered the real-time performance of the algorithm at the same time, an improved stereo matching algorithm based on cross-scale guided filtering is proposed. Firstly, the two cost calculation methods of SAD and Census transform are combined, and then the cost aggregation is performed by using cross-scale guided filtering. When calculating the disparity calculation, a judgment criterion is used to judge the reliance of the disparity value corresponding to the minimum aggregation cost of each pixel in the image. When it is judged that the corresponding disparity value is unreliable, an adaptive window based on gradient similarity is constructed for the pixel, and the disparity value corresponding to the pixel is corrected based on the adaptive window. Finally, the final disparity map is obtained by parallax refinement. Experimental results on standard stereo image pairs on the Middlebury test platform show higher accuracy than traditional guided filter based stereo matching algorithms.
Key words: stereo matching     matching cost     multi-scale     guided filtering     adaptive window    

近年来随着计算机视觉领域的迅猛发展, 基于视觉的三维重建已经成为一个非常热门的方向, 双目视觉作为其中一种重要的分支也越来越得到大家的关注. 立体匹配是从双目视觉到三维重建中的一个非常关键的步骤, 对重建效果影响巨大. 根据Sharstein等[1]提出的双目立体匹配理论框架, 立体匹配主要分为以下4个步骤: 匹配代价计算、匹配代价聚合、视差计算以及视差精化. 当前主要的立体匹配算法又可以根据在匹配代价计算后是否采用代价聚合分为全局和局部立体匹配算法. 全局立体匹配算法的核心思路是在计算匹配代价后, 构建一个全局的能量函数, 通过全局优化理论方法最小化能量函数估计视差. 全局立体匹配算法匹配精度高, 但其运行速度慢且算法复杂度较高. 局部立体匹配算法充分利用像素点周围的局部信息, 通过代价聚合来估计视差, 得到视差的局部最优解. 相比于全局立体匹配算法, 精度稍低, 但运行速度快且算法复杂度较低.

现有的局部立体匹配算法主要关注于改进代价计算和代价聚合两部分来提高算法精度. 常见的匹配代价计算方法有基于像素的匹配代价如灰度绝对值(Adsolute Differences, AD)、灰度差平方(Squared Differences, SD)等; 基于窗口的匹配代价如灰度差绝对值和(Sum of Absolute Difference, SAD)、归一化互相关(Normalized Cross Correlation, NCC)等; 以及基于非参数变换[2]的匹配代价如Census、Rank等. 一般来说, 基于像素和窗口的代价计算方法对噪声和光照变化非常敏感, Census变换对光照变化不敏感, 但在重复纹理区域效果较差, 因此融合多种代价计算方法也成为一种常用的手段. Hosni等将SAD和梯度信息结合作为性的代价计算方法; Mei等[3]结合灰度差绝对值和Census变换进行代价计算, 在弱纹理区域和重复纹理结果区域都取得了很好的结果; Zhu等[4]提出将AD、梯度信息和Census变换结合, 提高了匹配精度.

代价聚合的方法主要分为自适应窗口和自适应权重的方法. Yoon等[5]首先提出使用双边滤波器进行代价聚合, 提出了自适应权重的算法, 该算法的主要思想视为匹配窗口中每一个像素赋予一个权重, 而权重通过其到窗口中心点的颜色差和距离得到, 但算法复杂度较高, 且运行速度较慢. Hosni等[6]提出使用引导滤波替代双边滤波进行代价聚合, 该算法整个计算过程都是线性的, 计算效率大幅提高, 在保持运行速度的情况下具有良好的匹配精度. Zhu等[7]优化Census变换策略, 并讲动态规划引入到代价聚合中, 有效的提升了代价聚合的效率.

为在保持运行速度的前提下, 提高视差精度, 本文提出了一种改进的基于跨尺度引导滤波的立体匹配算法. 首先融合SAD和改进的Census变换两种代价计算方法, 然后采用基于跨尺度的引导滤波进行代价聚合, 在进行视差计算时, 并没有采用常用的赢者通吃(Winner-Take-All, WTA)方法, 而是通过制定一个判断准则判断图像中每一个像素点的最小聚合代价对应的视差值是否可靠, 当判断为视差不可靠时, 对像素点构建自适应十字交叉窗口, 并基于自适应窗口修正该像素点对应的视差值, 最后进行视差精化得到最终的视差图. 实验表明, 相比于当前的局部立体匹配算法, 本文所提出的算法可以获得更高精度的视差图.

1 引导滤波

由He等[8]提出的引导滤波算法, 是一种能够实现边缘保留特性的滤波方法.

I为引导图像, p为待滤波图像, q为滤波后图像, 引导滤波基于如下假设: 在以各个像素为中心的窗口 ${\omega _k}$ 内, qI线性转换得到:

${q_i} = {a_k}{I_i} + {b_k},\forall i \in {\omega _k}$ (1)
${q_i} = {p_i} - {n_i},\forall i \in {\omega _k}$ (2)

式(1)中, ${\omega _k}$ 表示以像素k为中心、以r为半径的方形窗口; ${a_k}$ ${b_k}$ 表示线性系数, 在窗口 ${\omega _k}$ 内为固定值.

在窗口 ${\omega _k}$ 内, 通过最小化噪声能量求解线性参数 ${a_k}$ ${b_k}$ :

${{E}}\left( {{a_k},{b_k}} \right) = \mathop \sum \limits_{i \in {\omega _k}} \left[ {{{\left( {{a_k}{I_i} + {b_k} - {p_i}} \right)}^2} + \varepsilon a_k^2} \right]$ (3)

式(3)中, ${\rm{\varepsilon }}$ 表示一个正则化系数. $\varepsilon a_k^2$ 作为平滑项, 防止线性系数 ${a_k}$ 过大, 通常有 ${\rm{\varepsilon }} > 0$ . 正则化系数 ${\rm{\varepsilon }}$ 对线性系数 ${a_k}$ 有惩罚作用, 当 ${\rm{\varepsilon }}$ 取值越大, 惩罚作用越强, 滤波后图像q越平滑; 当 ${\rm{\varepsilon }}$ 取值越小, 惩罚作用越弱, 滤波后图像q边缘保留越完整.

式(3)的解为:

${a_k} = \dfrac{{\dfrac{1}{{\left| \omega \right|}}\displaystyle\mathop \sum \nolimits_{i \in {\omega _k}} {I_i}{p_i} - {\mu _k}{p_k}}}{{\sigma _k^2 + \varepsilon }}$ (4)
${b_k} = {p_k} - {a_k}{\mu _k}$ (5)

式(4)、(5)中, ${\mu _k}$ $\sigma _k^2$ 分别表示引导图像I在窗口 ${\omega _k}$ 内的均值和方差; $\left| {\rm{\omega }} \right|$ 表示窗口 ${\omega _k}$ 内的像素数; ${p_k}$ 表示待滤波图像p在窗口 ${\omega _k}$ 内的均值.

2 本文算法

本文算法由代价计算、跨尺度引导图滤波以及视差计算三部分组成. 核心算法流程如图1所示. 首先对原始图像进行降采样, 得到多尺度图像, 并对每一尺度图像对计算其匹配代价, 构建多尺度原始代价空间; 然后基于引导滤波对多尺度原始代价空间进行代价聚合, 并加入正则式项, 优化相邻尺度的一致性问题; 最后以处理后的代价空间为基础计算视差, 根据视差判断准则, 对不可靠视差进行优化.

图 1 算法流程图

2.1 代价计算

代价计算的目的是量化左右图像对应像素之间的相似程度, 在设计代价计算方法时面对的主要问题是像素级的相似性判断对光照变化、噪声等非常敏感, 非常容易误匹配. 一般的计算方法有SAD、Census和归一化互相关等, 同时多种代价计算方法融合也是很常用的方法. 本文采用的基于颜色通道的SAD和census融合的代价计算方法.

假设左图中的一个像素点为 ${p_i}$ , 坐标为 $\left( {{{x}},{{y}}} \right)$ , 相对应的右图中的像素点为坐标为 $\left( {{{x}} - {{d}},{{y}}} \right)$ , 其中d为视差. 以像素点 ${{{p}}_{{i}}}$ 为中心, 半径为r的矩形窗位 ${\omega _i}$ , 分别计算 ${C_{\rm{AD}}}\left( {{p_i},d} \right)$ ${C_{\rm{census}}}\left( {{p_i},d} \right)$ 的值.

${C_{AD}}\left( {{p_i},d} \right) = \frac{1}{3}\mathop \sum \limits_{c \in \left[ {r,g,b} \right]} I_l^c\left( {{\omega _i}} \right) - I_r^c\left( {{\omega _i}} \right)$ (6)
${\rm{I}}\left( {{\omega _i}} \right) = \frac{1}{N}\mathop \sum \limits_{j \in {w_i}} {p_j}$ (7)

式(6)、(7)中 ${{I}}\left( {{\omega _i}} \right)$ 表示在矩形框 ${\omega _i}$ 中, 包含的像素点的平均值, N为矩形框的像素点个数. $I_l^c\left( {{\omega _i}} \right)$ $I_r^c\left( {{\omega _i}} \right)$ 用于区分单一颜色通道和左右图像.

在计算 ${C_{\rm{census}}}\left( {{p_i},d} \right)$ 时, 采用在左图像对应的灰度图像中计算矩形窗内像素的平均值, 并依次比较矩形窗中像素点与平均值, 得到二进制编码 $ce{n_l}\left( {{p_i}} \right)$ , 然后根据同样的方法计算右图的 $ce{n_r}\left( {{p_i}} \right)$ . 通过计算两个二进制编码串的Hamming距离, 得到 ${C_{\rm{census}}}\left( {{p_i},d} \right)$ . 其计算公式如下:

${C_{\rm{census}}}\left( {{p_i},d} \right) = Ham\left( {ce{n_l}\left( {{p_i}} \right),ce{n_r}\left( {{p_i}} \right)} \right)$ (8)

SAD-census联合匹配代价的定义为:

${{C}}\left( {{p_i},d} \right) = \rho \left( {{C_{\rm{census}}}\left( {{p_l},d} \right),{\lambda _{\rm{census}}}} \right) + \rho \left( {{C_{AD}}\left( {{p_l},d} \right),{\lambda _{AD}}} \right)$ (9)

其中, $\rho \left( {C,\lambda } \right)$ 是关于C的函数:

$\rho \left( {C,\lambda } \right) = 1 - {\rm{exp}}\left( { - \frac{C}{\lambda }} \right)$ (10)

其中, ${\lambda _{\rm{census}}}$ ${\lambda _{AD}}$ 参数, 其主要目是通过该函数将两类代价值控制在[0, 1], 使代价不会因为某一项发生较大的突变.

2.2 跨尺度引导图像滤波

传统的匹配代价聚合方法主要考虑原始图像, 即在最细的尺度进行研究. 其聚合代价可以视为一个加权最小二乘问题[9], 即

$\tilde C\left( {i,d} \right) = {\rm{argmin}}{_z}\frac{1}{{{Z_i}}}\mathop \sum \limits_{j \in {\omega _i}} K\left( {i,j} \right)z - C{\left( {j,d} \right)^2}$ (11)

式(11)中 $\tilde C\left( {i,d} \right)$ 为中心像素 ${p_i}$ 在视差为d时的聚合代价, ${{K}}\left( {{{i}},{{j}}} \right)$ 为其邻域像素 ${p_j}$ 的支持权重, ${Z_i} = $ $ \displaystyle\mathop \sum \limits_{j \in {\omega _i}} K\left( {i,j} \right)$ 为归一化常数, ${\omega _i}$ 为中心像素 ${{i}}$ 的支持窗口. z为待计算的聚合代价.

为了融合多尺度的信息, 充分利用粗尺度信息提高弱纹理和无纹理区域的匹配精度, Zhang等[10]通过对图像下采样获取多尺度信息, 提出了跨尺度模型来聚合多尺度匹配代价, 在优化目标中添加广义L2正则化项, 使匹配代价在相邻尺度上具有一致性, 即:

$ \begin{aligned} \tilde C\left( {{i^s},{d^s}} \right) &= {\rm{argmin}}{_{{z^s}_{s = 0}^s}} \left( \mathop \sum \limits_{s = 0}^S \frac{1}{{Z_{{i^s}}^S}}\mathop \sum \limits_{{j^s} \in N_i^s} K\left( {{i^s},{j^s}} \right){z^s}\right.\\ &\left.- {C^s}{{\left( {{j^s},{d^s}} \right)}^2} + \gamma \mathop \sum \limits_{s = 1}^S {z^s} - {z^{s - 1}}^2 \right)\end{aligned} $ (12)

式(12)中上标s为下采样尺度空间, S为下采样的最大次数. $\gamma $ 为正则化因子.

2.3 视差计算

代价聚合得到的代价空间, 同时包含了对应像素之间的相似度信息和对应像素邻域之间的相似度信息. 在计算每个像素点的视差值时, 传统算法一般采用赢者通吃(WTA)的策略简单地选择最小匹配代价对应的视差值作为该像素对应的视差值.

然而, 考虑到最小匹配代价对应的视差值不一定等于真实视差值. WTA策略并不是一个好的选择视差的策略. 根据聚合后的代价空间信息, 可以对视差的可靠性进行判断. 一个常用的视差可靠的判断依据[11]如下:

${C_d} = \frac{{{C_{i,1}}}}{{{C_{i,2}}}}$ (13)
${C_i} = \left\{ {\begin{array}{*{20}{c}} {{C_{i,1}},{C_d} \le {C_{th}}}\\ {g\left( {C\left( {i,d} \right)} \right),{C_d} > {C_{th}}} \end{array}} \right.$ (14)

式(13)、(14)中对于任意像素 ${p_i}$ , ${C_{i,1}}$ 表示最小匹配代价, ${C_{i,2}}$ 表示次最小匹配代价. ${C_d}$ 越小, 则在一定程度上说明匹配的视差值越可靠. 当设定一个阀值 ${C_{th}}$ , 可以和容易判断当前像素点的最小的匹配代价对应的视差值是否可靠.

对于不可靠的视差值还需要进一步的处理. 一般来说某个区域梯度变化的不规则通常会导致其和噪声具有高相似性, 从而导致引导滤波将其误认噪声. 所以本文采用基于梯度相似性的自适应窗口来处理不可靠视差值, 如图2所示.

图 2 基于梯度相似性的自适应窗口

从图像左上角开始, 按照从上到下、从左到右的顺序搜索视差不可靠像素点, 对于搜索到的每一个像素点 ${p_i} = \left( {{x_i},{y_i}} \right)$ , 以像素 ${p_i}$ 为中心从垂直和水平两个方法构建自适应窗口. 根据图像的区域梯度结构自适应地确定臂长, 令四个方向上的臂长分别为 $h_i^l$ $h_i^r$ $v_i^u$ $v_i^b$ . 以 $h_i^r$ 为例, 使用x方向上的Sobel算子对像素i右侧的像素进行梯度相似性检测, 其目的是在相邻像素梯度相似的情况下找到最大的水平右臂长. 设像素 ${p_i}$ 的水平右像素点为 ${p_{i + j}} = \left( {{x_i} + j,{y_i}} \right),j = 1,2,3, \cdots, N$ , 则有:

$h_{i}^{r}=\text{max}\left[ {r}{\mathop{\prod_{{\begin{matrix} j\in \left[ 1,2,3,\cdots, N \right],\\ {{x}_{j}}\in \left[ {{x}_{i}}+1,{{x}_{i}}+r \right],\\ {{y}_{j}}={{y}_{i}} ,\\ r\in \left[ 1,L \right] \\ \end{matrix}}} }}\,g\left( j-1,j \right) \right]$ (15)
$g\left( {j - 1,j} \right) = \left\{ {\begin{array}{*{20}{l}} {1,\;\;\dfrac{1}{3}\displaystyle\mathop \sum \limits_{c \in \left[ {r,g,b} \right]} \left| {G_x^c\left( {j - 1} \right) - G_x^c\left( j \right)} \right| \leqslant \partial } \\ {0,\;\;{\rm{other}}} \end{array}} \right.$ (16)

式(15)、(16)中, L表示最大臂长; ${G_x}\left( j \right)$ 表示像素点 ${p_{i + j}}$ x轴方向上的梯度值; $\partial $ 表示梯度相似性的判定阀值.

确定 $h_i^l$ $h_i^r$ $v_i^u$ $v_i^b$ 四个方向上的臂长后, 水平部分 ${H_i}$ 和垂直部分 ${V_i}$ 定义如下:

${H_i} = \left\{ {\left( {x,y} \right)|x \in \left[ {{x_i} - h_i^l,{x_i} + h_i^r} \right],y = {y_i}} \right\}$ (17)
${V_i} = \left\{ \left( {x,y} \right)|y \in \left[ {{y_i} - v_i^u,{y_i} + v_i^b} \right]\right\} $ (18)

像素点 ${p_i}$ 的自适应窗口 ${U_i}$ 定义如下:

${U_i} = \bigcup\limits_{j \in {V_i}} {{H_j}} $ (19)

由于自适应窗口 ${U_i}$ 中的像素梯度结构相似, 可以认为它们是位于相同的区域内, 所以具有相同的视差值. 选择窗口 ${U_i}$ 中的像素匹配代价和最小的视差值, 作为窗口 ${U_i}$ 中的每个视差不可靠像素的结果时差之, 即

$g\left( {C\left( {i,d} \right)} \right) = {\rm{argmin}}\mathop \sum \limits_{j \in {U_i}} {C_{j,l}}$ (20)

处理完成后, 将窗口 ${U_i}$ 中的所有视差不可靠像素标记为可靠像素, 继续搜索下一个视差不可靠像素进行处理, 直到所有视差不可靠的像素点全部处理.

3 实验结果与分析

为验证本文算法的有效性, 在Clion集成开发环境中结合图像处理开源库OpenCV, 使用C++实现了算法. 实验环境为: Ubuntu16.04系统, Intel i7-4720HQ, 内存8 GB. 采用学术界公认的立体匹配算法测试平台Middlebury[12]进行测评. 该网站提供了4组标准色彩立体匹配图以及其对应的真实视差图, 分别为: Tsukuba(384像素×288像素), Venus(434像素×383像素), Teddy(450像素×375像素), Cones(450像素×375像素). 通过将实验结果视差图与真实视差图比较并量化匹配误差, 从而客观地对算法效果进行评价. 其中实验中参数设置如下: ${C_{th}} = 0.7$ , $\partial = 1.0$ .

3.1 结果与分析

图3中为在Middlebury2006标准立体图像数据集中的实验结果. 图3(a)为各组标准图像对的原始左图像, 图3(b)为各组标准图像对的真实视差图, 图3(c)为单尺度引导滤波算法(GF)[6]的视差图, 图3(d)为跨尺度引导滤波算法(S-GF)[10]的视差图, 图3(e)为本文算法的视差图. 以上几种算法与本文算法相关性较大, 具有很高的可比性. 由对比结果可以看出, 本文算法对4对标准图像对都有一定程度的精度提升.

表1为本文算法与其他局部立体匹配算法的定量结果对比. 其中n-occ为非遮挡区域误匹配像素百分比, disc为深度不连续区域误匹配像素百分比, all是全部区域误匹配像素百分比. 通过它们的均值可以得出4组标准图像对的平均错误率(Average Percent of Bad Pixels, AvgPBM). 从表1数据可以看出, 本文算法同GF算法相比精度提高了0.81个百分比, 同S-GF算法相比提高了0.2个百分点. 本文算法尽管在Tsukuba精度上有所降低, 但在Venus, Teddy和Cones的匹配精度上有了显著提高.

3.2 参数分析

参数 ${C_{th}}$ 为判断像素点视差是否可靠的判定阀值, 参数 $\partial $ 为构建基于梯度的自适应十字交叉窗口时, 判断梯度结构相似性的阀值. 这两个参数对视差计算得到视差图的精度都起到了非常大的影响. 对于参数 ${C_{th}}$ 而言, 其越小判断像素点视差值是否可靠的标准越严格, 越大则判断标准越放松. 对于参数 $\partial $ 而言, 其越小则构建的十字交叉窗口越小, 越大则构建的十字交叉窗口越大. 十字交叉窗口的大小会直接影响匹配精度. 为得到最高的匹配精度, 需要通过实验确定合理的 $\partial $ 值. 为得到最高的匹配精度, 需要通过实验确定合理的 ${C_{th}}$ $\partial $ 值. 在保持其他实验条件和参数不变的情况下, 对 ${C_{th}}$ 从[0.3, 1]之间的取值进行了实验, 计算匹配误差, 实验结果如图4所示. 在保持其他实验条件和参数不变的情况下, 对 $\partial $ 从[0.2, 2]之间的取值进行了实验, 计算匹配误差, 实验结果如图5所示.


图 3 标准图像对不同方法下的视差图对比

表 1 不同算法误匹配像素百分比

图 4 不同 ${C_{th}}$ 取值下的误匹配率

图 5 不同 $\partial $ 取值下的误匹配率

图4图5可以看出, 对于Venus数据, 误匹配率受参数 ${C_{th}}$ $\partial $ 值得影响不明显. 而对于其他3组图像数据, 当 ${C_{th}} = 0.7$ , $\partial = 1.00$ 时, 得到的视差图精度最好.

4 结论

为提高视差图精度同时保持较快的运行速度, 本文提出了一种改进的跨尺度引导滤波算法. 首先融合SAD和Census变换两种代价计算方法, 然后采用基于跨尺度的引导滤波进行代价聚合, 在进行视差计算时, 并没有采用常用的赢者通吃(Winner-Take-All, WTA)方法, 而是通过制定一个判断准则判断图像中每一个像素点的最小聚合代价对应的视差值是否可靠, 当判断为视差不可靠时, 对像素点构建基于梯度相似性的自适应窗口, 并基于自适应窗口修正该像素点对应的视差值, 最后进行视差精化得到最终的视差图. 实验结果表明, 通过达到精度和速度的平衡. 在接下来的研究中, 会基于GPU平台重构代码, 实现并行运算进一步提高算法运行速度.

参考文献
[1]
Scharstein D, Szeliski R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International Journal of Computer Vision, 2002, 47(1): 7-42.
[2]
Zabih R, Woodfill J. Non-parametric local transforms for computing visual correspondence. Proceedings of the third European Conference on Computer Vision (Vol. II). Stockholm, Sweden. 1994. 151–158.
[3]
Mei X, Sun X, Zhou MC, et al. On building an accurate stereo matching system on graphics hardware. Proceedings of 2011 IEEE International Conference on Computer Vision Workshops. Barcelona, Spain. 2011. 467–474.
[4]
Zhu SP, Yan L. Local stereo matching algorithm with efficient matching cost and adaptive guided image filter. The Visual Computer, 2017, 33(9): 1087-1102. DOI:10.1007/s00371-016-1264-6
[5]
Yoon KJ, Kweon IS. Adaptive support-weight approach for correspondence search. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(4): 650-656. DOI:10.1109/TPAMI.2006.70
[6]
Hosni A, Rhemann C, Bleyer M, et al. Fast cost-volume filtering for visual correspondence and beyond. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(2): 504-511. DOI:10.1109/TPAMI.2012.156
[7]
Zhu SP, Yan LN, Li Z. Stereo matching algorithm based on improved Census transform and dynamic programming. Acta Optica Sinica, 2016, 36(4): 0415001.
[8]
He KM, Sun J, Tang XO. Guided image filtering. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1397-1409. DOI:10.1109/TPAMI.2012.213
[9]
Milanfar P. A tour of modern image filtering: New insights and methods, both practical and theoretical. IEEE Signal Processing Magazine, 2013, 30(1): 106-128. DOI:10.1109/MSP.2011.2179329
[10]
Zhang K, Fang YQ, Min DB, et al. Cross-scale cost aggregation for stereo matching. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(5): 965-976. DOI:10.1109/TCSVT.2015.2513663
[11]
Hirschmüller H, Innocent PR, Garibaldi J. Real-time correlation-based stereo vision with reduced border errors. International Journal of Computer Vision, 2002, 47(1–3): 229-246.
[12]
Scharstein D, Szeliski R, Hirschmüller H. The middlebury stereo vision page. http://vision.middlebury.edu/stereo/.