计算机系统应用  2021, Vol. 30 Issue (9): 171-178   PDF    
基于计算机视觉的管路振动感知算法
陈恒俊1, 蔡明志1, 陈乐2, 许文杰2     
1. 南方电网调峰调频发电有限公司, 广州 510630;
2. 广州市奔流电力科技有限公司, 广州 510700
摘要:为解决电厂生产区域中管路振动超出正常范围未能及时预警而导致管路破损或连接法兰、阀门处出现工质泄漏的问题, 提出了一种基于计算机视觉的管路振动感知算法, 首先采用卷积神经网络估计待测管路的光流信息, 然后通过分析光流信息检测出管路是否振动, 接着通过振动测量模块对监测画面中检测出振动的管路目标的振动频率和振幅进行测量, 从而实现对管路振动的感知. 在电厂原有摄像头拍摄的振动管路数据上进行了实验, 测试结果表明本文方法的速度约为4 f/s, 振动频率的测量误差小于0.08. 为计算机视觉技术在不改变电厂原有硬件装置的情况下实现实时管路振动检测和测量任务提供了新的思路.
关键词: 管路振动    计算机视觉    光流估计    振动检测    振动测量    
Pipeline Vibration Perception Algorithm Based on Computer Vision
CHEN Heng-Jun1, CAI Ming-Zhi1, CHEN Le2, XU Wen-Jie2     
1. CSG Power Generation Co. Ltd., Guangzhou 510630, China;
2. Guangzhou Power Electrical Technology Co. Ltd., Guangzhou 510700, China
Foundation item: Science and Technology Project of CSG Power Generation Co. Ltd. (020000KK52190017)
Abstract: A pipeline vibration perception algorithm based on computer vision is proposed to solve pipeline damage or working fluid leakage at connecting flanges and valves due to a failure of timely warning induced by abnormal pipeline vibration in the production area of power plants. First, a convolutional neural network is used to estimate the optical flow information of the pipeline to be measured. Then, the information is analyzed to detect whether the pipeline vibrates or not. Finally, a vibration measurement module is employed to measure the vibration frequency and amplitude of the vibrating pipeline target in the monitor display for the perception of pipeline vibration. The experiments on the vibrating pipeline data taken by the original camera of a power plant show that the speed of the proposed method is about 4 f/s, and the measurement error of vibration frequency is less than 0.08. This method provides new ideas for computer vision technology to accomplish real-time pipeline vibration detection and measurement tasks without changing the original hardware devices of the power plants.
Key words: pipeline vibration     computer vision     optical flow estimation     vibration detection     vibration measurement    

随着社会经济的快速增长, 各领域对于电力能源的需求越来越大, 而发电厂是电力能源的核心来源, 如何保证电厂正常和高效运行是一项重要任务. 在电厂的生产过程中往往需要各种工质的流动和传输, 因此电厂内管路纵横交叉, 各管路的运行状态关系到电厂的安全运行. 为了保证电厂的稳定运行, 必须要对电厂的各管路进行状态监测. 而通过振动测量之后得到的目标振动的频率和振幅等数据能反映出目标的当前状态[1].

目前, 振动测量的方法大致分为3种[2], 一是人工巡查测量, 二是基于传感器的振动测量, 三是基于视觉的振动测量. 电厂中的管路交错复杂, 而且其出现振动的现象往往具有较大的随机性和不可预见性, 而人工巡查测量无法覆盖全天候全范围, 因此不能有效检测到管路振动; 基于传感器的振动监测方法[3,4], 通过在需要监测的目标上布置传感器的方式, 从而能够实时掌握到监测目标的振动状态, 但需要在每个监测目标上安装振动传感器, 需要耗费巨大的物力和财力, 并且传统的振动测量传感器, 在极端条件下的准确性往往不可靠, 会受到温度和辐射等环境条件的影响; 而基于视觉的振动监测方法[5,6]只需要通过监控画面就能快速的测量出目标的振动参数, 且具备强抗干扰性.

基于视觉的振动测量方法分为数字图像相关法、标记跟踪法和光流方法. 数字图像相关法[7-10]测量振动需要在被测量目标上预先设置散斑图像, 故又称数字散斑相关法. 数字相关图是基于数值计算和图像处理的变形或振动测量方法, 其通过光路布置(在待测目标上设置散斑图像)后, 采集待测目标的监测画面, 最后通过图像计算得到待测目标的振动参数. 文献[7]采用数字图相关法非接触的测量出了齿轮轴线平行度误差, 并且得到了齿轮副的传动误差曲线. 文献[8]利用三维的数字图像相关法测量了工程结构试件的固有振动频率及其变化值.

标记跟踪法[11,12]振动测量是通过在待测对象的结构表面粘贴标记物的方式, 对图像中的标记物进行处理和分析, 得到标记物的振动信息, 从而完成待测对象的振动测量, 其标记物通常使用圆形标记, 且与待测对象背景具有一定的差异. 文献[12]通过标记跟踪法, 测量出了无人机机翼的振动数据, 包含了振型和振动频率等, 验证了标记跟踪振动测量方法的有效性.

数字图像相关法和标记物跟踪振动测量方法在测量过程中都不易受外界环境的干扰, 精度较高, 但都需要在待测目标上预先设置标记物, 准备工作繁琐, 实用性不佳, 不能充分体现计算机视觉技术的易用性以及非接触式振动测量的优势.

光流法常用来检测图像序列中运动的目标, 通过图像序列提取到的光流包含图像中目标的运动信息, 为物体的振动测量提供了数据来源. 并且光流法并不需要预先在待测目标上设置标记物, 使得基于光流法的物体振动测量易用性更高[13,14]. 文献[13]基于光流法提出了一种斜拉索振动测量方法, 仅通过普通相机就能测量出无标记的斜拉索的振动特性. 文献[14]提出了一种多线程主动视觉感应的概念, 通过测量高速摄像机拍摄下的土木工程结构上多个点的光流, 从而得到多个点的动态变化的位移和振动. 光流法测量振动因为其不需要预先在待测目标上设置标记物, 简单方便的优点使得其应用广泛[15], 但光流法对于图像的质量要求较高, 而且现有的光流计算大部分基于传统光流法[16,17], 其计算成本过高, 无法达到实时检测, 并且对于光照等环境条件的变化敏感, 从而导致一定的噪声.

为了解决上述方法的局限性, 本文提出了一种基于计算机视觉的振动感知方法, 首先采用卷积神经网络估计待测目标的光流信息, 然后通过分析光流信息检测出物体的振动, 最后通过记录振动目标中心点的周期信号测量出振动目标的频率和振幅.

1 方法 1.1 振动检测

光流(optical flow)[18]是空间运动物体在成像平面上的像素运动的瞬时速度. 在计算机视觉任务中, 光流代表图像序列中的像素点随着时间变化而发生位置变化情况, 光流具有丰富的运动信息[19], 在目标跟踪、运动估计和自动驾驶等领域[20-22]应用广泛. 但现有光流的计算方法依赖于基于变分能量模型的优化算法[23]和基于块匹配[24]的启发式算法等, 但这些传统光流计算方法计算成本高、计算时间长, 导致不适用于实时性任务, 另外对于深度学习网络如要使用光流所包含的运动信息, 需要预先提取光流, 使得网络模型并不能端到端.

随着卷积神经网络在计算机视觉领域的大放异彩, 研究者们尝试用卷积神经网络来估计光流信息[25-27], 文献[25]将光流问题视作图像的重建问题, 尝试利用卷积神经网络自主学习特征的优势去解决光流的问题, 提出了FlowNet, 采用深度网络架构去预测光流, 其预测的准确度略低于传统光流计算方法, 但其预测的速度远快于传统的光流计算速度.

结合电厂中对于管路振动检测的实时性要求和管路振动本质是小位移运动的特性, 本文将光流问题建模成一个有监督的深度学习问题, 假定在工业电视系统中获取到实时图像序列 $[{{f_1},}\;{{f_2},}\;{ \cdots ,}\;{{f_n}}]$ , ${f_k}$ ${f_{k + 1}}$ 两帧图像的光流为 ${O_k}$ , 则本文预测光流的公式如下:

${O_k} = CNN\left( { {\omega ,}\;{{f_k},}\;{{f_{k + 1}}} } \right)$ (1)

式中, $CNN$ 为深度卷积神经网络, $\omega $ 为网络中待学习的参数, 通过调节参数ω的值使得网络具备预测 ${f_k}$ ${f_{k + 1}}$ 两帧图像的光流 ${O_k}$ 的能力.

本文预测光流的网络是基于FlowNet-S的网络结构, 针对管路振动实质上的是像素点在画面中的小位移特性和FlowNet-S在估计小位移运动的可靠性不稳定的情况, 本文将其第一层的步长和卷积核的大小进行了修改, 以便能更好的预测出小位移的光流. 网络的框架图如图1所示.

图 1 光流预测网络结构

本文通过深度网络去估计图像帧序列光流的方法分为3个步骤: 第1步输入图像帧序列中连续两帧图像进入网络; 第2步采用网络卷积层的卷积操作得到收缩后的特征图; 第3步是将提取的特征通过反卷积的方式一步一步去预测图像的光流, 最终得到预测的光流图像大小扩大到与输入帧图像的大小相同. 相比于传统方法计算光流, 本文采用深度网络去预测光流, 其计算方式为计算复杂度不高的卷积操作, 使得光流得获取具有实时的可能.

由上述深度网络预测出光流后, 为检测出振动目标, 本文首先采用局部自适应的方法分割单张光流图, 但在分割的过程中我们发现单张分割出的前景目标轮廓并不明显, 并且还具有一定的噪点, 考虑到振动是连续的, 其表现在连续帧画面中, 可以通过取多帧的结果进行分析, 以得到更好的分割结果, 然后通过中值滤波和形态学闭操作去除噪声, 就完成了振动目标的检测.

在提取到振动目标之后, 需要提取振动目标的局部区域, 以降低后续振动测量的时间和计算复杂度, 所以本文对检测出的振动目标使用边缘提取算法(Canny)提取振动目标的边缘, 再进行闭操作并临近边缘并去掉一些较短边缘之后, 根据边缘点所在的范围提取出原图片对应振动目标的位置, 再对上述图片进行网格划分, 从上到下划分出4块区域, 使用霍夫曼直线检测进行检测, 由于振动管路为圆柱体, 其在画面中的表现形式为长方形区域, 所以我们根据两条直线的距离来判断是否是震动管路, 最后得到了振动管路的局部区域位置信息, 即可以得出图像序列中待测量振动管路区域, 如图2所示.

图 2 分割出的图像序列中待测量振动管路区域示例

1.2 振动测量

由光流估计和光流分析, 确定了需要待测量管路目标的图像序列, 基于此, 本文采用以下方法测得目标的振动信息: 首先将管路目标与背景区域分割出来, 然后通过边缘查找方法找出管路目标的左右边缘点并得到管路目标的中心点, 再观察并记录中心点在图像序列中位置的周期变化, 最后通过中心点的周期性变化计算出振动的幅值和频率.

1.2.1 振动管路图像分割

为了方便后续的计算, 首先对图像进行灰度化处理, 将彩色图像转换为灰度图像, 如图3所示.

图 3 待测量管路目标的图像序列和灰度化后的待测量管路目标的图像序列

在待测量管路目标的图像中不仅包含对测量任务有用的管路目标, 还存在冗余的背景. 为了去除背景信息的干扰, 本文采用最大类间方差法(OSTU算法)对图像进行前景和背景的自适应阈值分割, 最后得到测量任务感兴趣只包含管路目标的二值图像. 如图4所示.

图 4 OSTU算法分割后的待测量管路目标的图像序列

1.2.2 中心点距离计算

在只包含管路目标的二值图像中, 本文先通过边缘查找出管路目标边缘像素点的坐标, 边点像素点查找的方式如式(2).

${P_k} \in \left\{ {\begin{array}{*{20}{l}} {\left( {x, y} \right),}&{\left( {x, y} \right)\;{\rm{in}}\;{\rm{the}}\;{\rm{border}}} \end{array}} \right\}$ (2)

式中, ${P_k}$ 代表图像序列中第K帧中的边缘点集合, $\left( {x, y} \right)$ 为图像序列中像素点的坐标. 如上述的示例图像序列对应的边缘点坐标集合如下:

$\left\{\begin{gathered} {P_1} = \left\{ {\begin{array}{*{20}{c}} {(91, 0),}&{(92, 2),}&{(92, 3),}& \cdots \end{array}} \right\} \\ {P_2} = \left\{ {\begin{array}{*{20}{c}} {(90, 0),}&{(91, 1),}&{(91, 4),}& \cdots \end{array}} \right\} \\ {P_3} = \left\{ {\begin{array}{*{20}{c}} {(90, 0),}&{(90, 2),}&{(91, 3),}& \cdots \end{array}} \right\} \\ {P_4} = \left\{ {\begin{array}{*{20}{c}} {(90, 0),}&{(90, 2),}&{(91, 3),}& \cdots \end{array}} \right\} \\ {P_5} = \left\{ {\begin{array}{*{20}{c}} {(90, 0),}&{(90, 1),}&{(91, 2),}& \cdots \end{array}} \right\} \\ \end{gathered} \right.$ (3)

在求得每帧图像得边缘点之后, 通过式(4)计算出每一帧中振动目标的中心点 ${C_k}$ .

${C_k} = \left( {{x_k},{y_k}} \right) = \left( {\frac{{\displaystyle\sum\limits_i^N {{x_i}} }}{N},\frac{{\displaystyle\sum\limits_i^N {{y_i}} }}{N}} \right)$ (4)

式中, $\left( {{x_k},{y_k}} \right)$ 为振动目标中心点的坐标, $\left( {{x_i},{y_i}} \right)$ 表示边缘点集合 ${P_k}$ 中像素点的坐标, $N$ 表示 ${P_k}$ 中像素点的总数量. 然后, 由每一帧中振动目标中心点的坐标计算得到其距离原点的距离 ${D_k}$ , 计算公式如下:

${{{D}}_k} = \sqrt {x_k^2 + y_k^2} $ (5)

式中, $\left( {{x_k},{y_k}} \right)$ 为第k帧图像中振动目标中心点的坐标, 对于每一帧图像中的中心点距离原点距离做一个规范化处理, 其计算方式如下:

${D_{k'}} = {D_k} - mean\left( {{D_k}} \right)$ (6)

式中, ${D_{k'}}$ 为规范化处理后的中心点距离, $mean\left( {{D_k}} \right)$ 表示所有帧序列图像振动目标中心点距离原点距离的均值. 通过计算可以得到上述示例5帧图像的规范化处理候的中心点距离, 如式(7).

${D_{k'}} = \left\{ { {0.282,}\;\;{0.025,}\;\;{ - 0.031,}\;\;{ - 0.039,}\;\;{ - 0.45} } \right\}$ (7)
1.2.3 测量振动的幅值和频率

通过记录连续帧序列中各帧中心点规范化处理好的中心点距离 ${D_{k'}}$ , 将其按时间顺序进行排列, 得到各帧振动目标中心点坐标的周期信号, 从而可以画出振动目标中心点的周期信号. 如图5所示.

图5中横轴为时间轴, 纵轴代表规范化处理好的中心点距离 ${D_{k'}}$ (像素点距离), 从而可以得到帧序列中振动物体中心点坐标的周期性信号如图5中曲线所示. 对于得到的振动物体中心点的周期图中的曲线, 本文首先找到曲线上所有的峰值点, 其组成的集合记为Q, 对于Q中的元素求平均, 从而得到振动的幅值A.

功率谱的定义是单位频带内的信号功率. 功率谱曲线的横轴为频率, 而纵轴为功率的大小. 根据信号与系统理论, 周期信号的功率谱会在相应的频率处形成尖峰. 通过功率谱来计算, 可以省去复杂的统计峰值的过程, 而且在频域上可以忽略掉时域的一些噪声, 使测量的结果更加准确. 对于振动物体的频率, 本文在频域上进行统计, 通过振动物体中心的周期信号图得到出对应的功率谱, 从而得到其频率值.

图 5 振动物体中心点响应的周期信号

图6所示, 通过观察功率谱的最高峰值所对应的横坐标频率, 可以得出振动的频率f. 如图中对应测量的振动物体通过该方法可以测得振动的频率约为10 Hz.

2 实验 2.1 数据

本文的数据主要分为两个部分, 其中一部分是用于振动检测, 用作光流预测网络的训练, 其来源为网络的开源数据集, 包括Chairs、Things3D和ChairsSDHom三个应用广泛的光流预测任务数据集, 以便光流预测模型能够预测出更准确的光流. 另外一部份用作整个方法的测试, 其来源于自我模拟和拍摄的视频, 因为目前电厂的管路振动的视频数据匮乏, 且电厂正常运行不能打断进行模拟, 所以本文采用了一些类管路的目标视频来测试我们方法的有效性, 数据示例如图7, 其中第1行为动画视频来源于开源数据集, 第2行为真实场景数据, 这两部分数据都为视频, 本文做了叠影效果展示.

图 6 振动物体的功率谱

图 7 数据示例

2.2 实验细节

本文的光流预测网络是在FlowNet-S网络的基础, 做了轻微的调整, 将其第一层的步长由2调整到1, 将7×7和5×5大小的滤波器调整为3×3, 并在Chairs数据集预先训练光流预测网络, 然后通过Things3D和ChairsSDHom两个数据集对网络进行微调以使得网络能够更好的捕捉小位移运动.

为了得到更好的振动目标分割结果, 本文对深度网络预测得到的连续100帧光流图像分割求平均操作, 再进行中值滤波和形态学闭操作去除噪声. 然后, 在频率值的测量过程中, 本文尝试了直接统计测量时间的峰值数, 再除以对应时间的方法得到频率, 但在实验过程中发现此方法容易因为信号的噪声使得统计的峰值数不准确, 严重影响频率测量的效果, 所以本文采用了功率谱的方法来计算频率值, 首先省去了统计峰值数的过程, 其次其在频域上可以忽略掉时域的一些噪声, 使测量的结果更加准. 最后, 本文在2.40 GHz Intel Xeon E5和Nvidia 1080 Ti的Ubuntu系统上评估了所有方法.

2.3 实验结果分析

为了验证本文方法整体上的有效性, 本文在振动检测和振动测量两个任务上进行了实验评估. 在振动检测任务上, 本文分别在虚拟数据(动画视频)和现实场景数据(真实场景拍摄)测试了本文的光流预测网络模型的效果, 其测试结果示例如图8所示.

图 8 在虚拟数据和现实场景数据上光流预测的测试结果

图8可以看出, 在虚拟数据上(1–2行), 本文方法和FlowNet-S的测试结果都取得了很好的效果, 都具有清晰目标轮廓和丰富的平滑的目标结构. 但在真实场景数据上(3–6行), 本文的光流预测网络模型相对于FlowNet-S所获得光流图像具有更明显运动目标边界、更清晰的运动目标结构和对小位移运动的鲁棒性, 也验证本文的光流预测网络模型在振动目标检测(小位移运动)任务上的优越性. 虽然本文光流预测网络模型的速度略低于FlowNet-S网络, 但相对于传统的光流计算方法快了几个数量级. 上述实验说明了本文方法在检测速度和效果上都满足了实际工程中振动检测的要求.

在振动测量任务上, 目前直接将深度学习和计算机视觉技术直接应用振动测量的研究相对较少, 暂无标准数据集, 为了验证我们的工作在振动测量上的有效性, 我们通过模拟管路振动, 同时通过仪器测量其振动幅值和频率作为真实值, 将记录下来的视频数据以用作我们实验的测试数据.

为了更直观的显示本文方法的实际效果, 本文在5个现实场景下管路振动的视频数据上进行了测试, 测试结果如表1所示. 从测试结果中可以看出, 本文的测量方法能够贴近振动物体真实的频率值, 其平均误差只有7.918%, 单从测试精度来讲, 本文的方法仍然无法与激光位移计以及其他传感器的方法相比, 但本文振动测量的方法只需要通过视觉的手段并且不需要在测量过程中预先再设置标记物, 实现了非接触、无目标的测试方式. 且频率的测试效果完全能够满足工程振动测试的一般要求.

表 1 在真实场景下数据上的测试结果

本文通过记录振动物体中心点的周期信号, 从而计算出该振动物体在画面上的振幅, 而画面中振动物体的振幅大小衡量标准是包含像素点对的个数, 如要确定振动物体的振动位移的大小, 则必须要通过复杂相机参数标定, 确定图像中像素点和现实空间物体表面点的对应关系, 以获得振动位移大小和像素的比例换算. 但实际应用场景中, 我们监测的目标和摄像头的数量过多, 相机参数的标定难度过大, 无法做到通用性, 故本文只探索了在图像画面中振动物体振动的幅度大小.

最后, 为了评估本文方法的速度, 128张图片输入到光流预测网络得到光流图像的时间约为26.7 s, 可得光流速度约为4.8 f/s; 然后以128张光流图像作为处理序列, 从光流图分割出待测量区域的时间为3.1 s, 测量出振动幅值和频率的时间是2.0 s, 由此可得到本文方法整体的速度为4 f/s.

从实验结果可以看出, 本文的基于计算机视觉的管路振动感知算法实现了管路振动检测和振动测量, 且具有较快的检测速度和较低的频率测量误差, 在实际应用中具有较高的应用价值, 验证了计算机视觉在振动检测和测量任务上的有效性.

3 结论与展望

本文提出了一种基于计算机视觉的电厂生产区域的振动检测和测量方法, 本文采用深度网络估计振动的光流信息从而达到了振动检测的目的, 并且不需要预先在待测目标上设置标记物, 仅从原有摄像系统(不需要额外添加硬件)就能直接测量到振动目标的频率和振幅, 大大提高了本文方法的实用性, 达到了4 f/s的速度, 同时频率测量误差仅有7.918%, 验证了计算机视觉在振动检测和测量任务上的有效性. 后续的研究工作中, 可进一步探索通过相机标定的方式去测量振幅的具体值, 另外可对一些更加复杂的目标进行振动检测和测量, 从而进一步应用于工业设备的振动检测和测量.

参考文献
[1]
徐立强, 王燚, 姜博. 生物质电厂振动炉排管道泄漏分析及预防措施. 黑龙江科技信息, 2015(15): 18.
[2]
彭聪, 缪卫东, 曾聪. 基于机器视觉的轻型梁三维振动测量方法. 北京航空航天大学学报, 2021, 47(2): 207-212. DOI:10.13700/j.bh.1001-5965.2020.0211
[3]
Barusu MR, Deivasigamani M. Non-invasive vibration measurement for diagnosis of bearing faults in 3-phase squirrel cage induction motor using microwave sensor. IEEE Sensors Journal, 2021, 21(2): 1026-1039. DOI:10.1109/JSEN.2020.3004515
[4]
Sels S, Vanlanduit S, Bogaerts B, et al. Three-dimensional full-field vibration measurements using a handheld single-point laser Doppler vibrometer. Mechanical Systems and Signal Processing, 2019, 126: 427-438. DOI:10.1016/j.ymssp.2019.02.024
[5]
Hosseinzadeh AZ, Harvey Jr PS. Pixel-based operating modes from surveillance videos for structural vibration monitoring: A preliminary experimental study. Measurement, 2019, 148: 106911. DOI:10.1016/j.measurement.2019.106911
[6]
Liu Z, He QB, Peng ZK. Vision-based vibration measurement by sensing motion of spider silk. Procedia Manufacturing, 2020, 49: 126-131. DOI:10.1016/j.promfg.2020.07.007
[7]
李福洋, 张二亮, 朱子文, 等. 基于数字图像相关方法的齿轮轴线平行度误差测量. 现代制造工程, 2020(11): 7-12. DOI:10.16731/j.cnki.1671-3133.2020.11.002
[8]
魏良宝, 蒋明. 基于三维数字图像相关的双轴振动疲劳试验研究. 苏州科技大学学报(工程技术版), 2017, 30(4): 32-39.
[9]
Huňady R, Pavelka P, Lengvarský P. Vibration and modal analysis of a rotating disc using high-speed 3D digital image correlation. Mechanical Systems and Signal Processing, 2019, 121: 201-214. DOI:10.1016/j.ymssp.2018.11.024
[10]
Chang CY, Huang CW. Non-contact measurement of inter-story drift in three-layer RC structure under seismic vibration using digital image correlation. Mechanical Systems and Signal Processing, 2020, 136: 106500. DOI:10.1016/j.ymssp.2019.106500
[11]
Wang WY, Li XJ, Ahmat Y, et al. Vibration measurement method based on point tracking for irregular structures. Optik, 2019, 176: 482-490. DOI:10.1016/j.ijleo.2018.09.100
[12]
Black JT, Pitcher NA, Reeder MF, et al. Videogrammetry dynamics measurements of a lightweight flexible wing in a wind tunnel. Journal of Aircraft, 2010, 47(1): 172-180. DOI:10.2514/1.44545
[13]
季云峰. 无目标计算机视觉技术在斜拉索振动测试中的应用研究. 振动与冲击, 2013, 32(20): 184-188, 202. DOI:10.13465/j.cnki.jvs.2013.20.027
[14]
Aoyama T, Li L, Jiang MJ, et al. Vibration Sensing of a bridge model using a multithread active vision system. IEEE/ASME Transactions on Mechatronics, 2018, 23(1): 179-189. DOI:10.1109/TMECH.2017.2764504
[15]
Chen JG, Wadhwa N, Cha YJ, et al. Modal identification of simple structures with high-speed video using motion magnification. Journal of Sound and Vibration, 2015, 345: 58-71. DOI:10.1016/j.jsv.2015.01.024
[16]
Baker S, Matthews I. Lucas-kanade 20 Years on: A unifying framework. International Journal of Computer Vision, 2004, 56(3): 221-255. DOI:10.1023/B:VISI.0000011205.11775.fd
[17]
Horn BKP, Schunck BG. Determining optical flow. Artificial Intelligence, 1981, 17(1–3): 185-203. DOI:10.1016/0004-3702(81)90024-2
[18]
Baker S, Scharstein D, Lewis JP, et al. A database and evaluation methodology for optical flow. International Journal of Computer Vision, 2011, 92(1): 1-31. DOI:10.1007/s11263-010-0390-2
[19]
Poppe R. A survey on vision-based human action recognition. Image and Vision Computing, 2010, 28(6): 976-990. DOI:10.1016/j.imavis.2009.11.014
[20]
Liu L, Zhai GY, Ye WL, et al. Unsupervised learning of scene flow estimation fusing with local rigidity. Proceedings of the 28th International Joint Conference on Artificial Intelligence. Macao, China. 2019. 876–882.
[21]
Zhou SR, Chen L, Sugumaran V. Hidden two-stream collaborative learning network for action recognition. Computers, Materials & Continua, 2020, 63(3): 1545-1561. DOI:10.32604/cmc.2020.09867
[22]
郑烨, 赵杰煜, 王翀, 等. 基于姿态引导对齐网络的局部行人再识别. 计算机工程, 2020, 46(5): 247-253. DOI:10.19678/j.issn.1000-3428.0056642
[23]
宿海涛, 张廷华. 图像序列的变分光流计算. 光学技术, 2020, 46(1): 124-128. DOI:10.13741/j.cnki.11-1879/o4.2020.01.020
[24]
张佳威, 支瑞峰. 光流算法比较分析研究. 现代电子技术, 2013, 36(13): 39-42. DOI:10.16652/j.issn.1004-373x.2013.13.039
[25]
Dosovitskiy A, Fischer P, Ilg E, et al. FlowNet: Learning optical flow with convolutional networks. Proceedings of 2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile. 2015. 2758–2766.
[26]
Yang GS, Ramanan D. Upgrading optical flow to 3D scene flow through optical expansion. Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA. 2020. 1331–1340.
[27]
Yuan Y, Su W, Ma DD. Efficient dynamic scene deblurring using spatially variant deconvolution network with optical flow guided training. Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA. 2020. 3552–3561.