基于视频帧间局部相关信息的光流估计网络

徐煦 ,  马鹏飞 ,  司建军 ,  高国军

辽宁工程技术大学学报(自然科学版) ›› 2025, Vol. 44 ›› Issue (01) : 120 -128.

PDF (1443KB)
辽宁工程技术大学学报(自然科学版) ›› 2025, Vol. 44 ›› Issue (01) : 120 -128. DOI: 10.11956/j.issn.1008-0562.20230491
图像识别与处理

基于视频帧间局部相关信息的光流估计网络

作者信息 +

Optical flow estimation via fusing sequence image intensity correlation information

Author information +
文章历史 +
PDF (1477K)

摘要

为解决光流估计网络在目标边缘分割、运动速度和运动方向不准确的问题,提出基于视频帧间局部相关信息的光流估计网络。运用特征编码器从图像中提取出编码特征,通过上下文网络获取图像的上下文特征。采用下采样处理减小特征尺寸提高计算效率。根据连续两帧光流图像位移较小的特性,提出一种分区计算视觉相似度的方法,构建更为精细的4D相关体。采用残差滤波器和相似卷积块的方法,分别针对相关体和光流信息进行操作,更有效地保留局部微小位移信息。研究结果表明:采用基于视频帧间局部相关信息的光流估计网络进行计算,端点误差分别实现了8.0%和5.7%的优化,显著提升了光流估计的准确性,对复杂场景下光流信息提取更准确。研究结果可为自动驾驶、智能安防等领域提供参考。

关键词

计算机视觉 / 光流估计 / 深度学习 / 区域匹配 / 迭代更新

Key words

computer vision / optical flow estimation / deep learning / regional matching / iterative update

引用本文

引用格式 ▾
徐煦,马鹏飞,司建军,高国军. 基于视频帧间局部相关信息的光流估计网络[J]. 辽宁工程技术大学学报(自然科学版), 2025, 44(01): 120-128 DOI:10.11956/j.issn.1008-0562.20230491

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

光流估计是计算机视觉领域的关键问题之一,广泛应用于动作识别[1]、视频理解[2]、自动驾驶[3]等领域。在处理光流估计问题时,传统方法基于亮度一致性和空间平滑度能量最小化的方式获得光流估计结果。HORN等[4]引入光流变分框架,将求解光流场的问题转化成求解最小能量函数的问题。BLACK等[5]构建鲁棒估计框架,对违反空间平滑和亮度恒定约束的情况进行综合处理。通过此框架,在面临噪声、遮挡以及非平稳光照等复杂条件时,光流估计运算更精确。但是该框架所采用的二次方式惩罚偏差具有明显局限性。基于此,ZACH等[6]提出采用L1数据项与总变差正则化替代原有的二次方式惩罚偏差,解除对运动连续性的束缚,同时实现对异常值的高效处理。为进一步优化该框架的性能,WEINZAEPFEL等[7]运用能量最小化方法和描述符匹配策略,融合匹配算法与变分法相,构建层次化的区域结构,引入高阶正则化项提升光流估计的准确性和鲁棒性。

近年来,深度学习在光流估计领域取得了显著进展,经过充分训练的神经网络能够直接预测帧间光流,有效避免传统算法复杂优化问题,但生成结果仍存在模糊和噪声问题。SIMONYAN等[8]通过引入变分方法,实现算法性能显著的性能提升。ILG等[9]采用多网络叠加策略提升算法性能。RANJAN等[10]将传统算法中的金字塔理念与光流估计相结合,采用由粗到细的估计方式解决光流估计过程中的大、小位移问题。SUN等[11]在此基础上引入相关体处理算法,实现了网络性能提升和端到端的训练方式。YANG等[12]通过引入4D卷积策略对相关体处理算法进行改进,显著提高了光流估计的准确性。HUI等[13]提出一种级联预测光流与特征正则化的方法,进一步优化光流估计的性能。以上深度学习的方法都采用了由粗到细的金字塔迭代优化策略。然而,该策略存在弊端,即快速移动的小物体在粗级别可能会消失。RAFT(recurrent all-pairs field transforms for optical flow)方法选择保持并更新单一的高分辨率光流场,这种方法在处理快速运动的小物体上表现出了明显的优势,为进一步提高光流估计的准确性和稳定性提供了新的思路。

RAFT方法[14]结构清晰,泛化能力强,所生成的光流图像清晰度高,在对KITTI-2015数据集[15]和MPI-Sintel数据集[16]的计算中表现出众。但RAFT方法也存在以下不足:首先,RAFT方法从所有像素的完全相关性来计算视觉相似性。但在大多数光流场景中,连续帧之间的像素位移较小,直接进行全相关计算会引入较多计算误差。其次,迭代更新依赖于卷积滤波器融合光流[17]和相关体积[18],这使最终的光流预测图过于平滑,影响了一些关键细节和特征的呈现。为解决RAFT方法存在的不足,本文提出基于视频帧间局部相关信息的光流估计网络。该网络先对输入的连续两帧特征图进行分区处理,以强弱相关的方式计算稠密的视觉相似度,以此为基础建立更为精细的四维相关体积。在迭代更新阶段,采用残差滤波器[19]和相似卷积块的方法,尽可能地保留更多的局部小位移信息。通过评价指标,对比实验、消融实验验证该方法的有效性和优越性。

1 网络结构设计

光流估计网络结构见图1,该网络主要由特征提取模块、视觉相似度计算模块,以及迭代更新模块构成。这些模块共同协作,实现精确的光流估计。在特征提取模块中,通过特征编码器对两帧连续的图像F 1F 2进行处理,得到特征图像对I 1I 2。在计算视觉相似度模块中,利用光流场景中连续两帧光流图像位移相对较小的特性,在第二张特征图上预先为第一张特征图中的每个特征像素圈定几个可能的位移区域,建立“像素-区域”映射关系,并为该映射关系自适应选取相关因子。根据这种强弱相关关系,计算出两张特征图上所有像素间的视觉相似性。这种方法可以避免直接进行全像素相关计算而引起的误差。在迭代更新模块,采用残差滤波器[19]和相似卷积块构成的基准编码模块(图1中标识模块B),该模块在关注局部小位移信息的同时不会产生过于平滑的效果。

1.1 特征提取模块

特征提取模块包括特征编码器和上下文网络两个部分。特征编码器g(θ)的实现主要依托残差结构块,残差结构块见图2

特征编码器g(θ)以权重共享的方式对连续两帧图像F 1F 2进行处理,并以1/8分辨率输出编码后的特征图像对I 1I 2R ( H /8)×( W /8)× D,其中,H为特征图的高度,W为特征图的宽度,D为维度。

上下文网络与特征编码器的结构一致,但仅用于提取F 1图像特征信息,最终输出编码后的特征I 3R ( H /8)×( W /8)× D

1.2 视觉相似度计算模块

光流估计的核心在于计算视觉相似度,在整体架构中不可或缺。然而,RAFT方法采用特征向量内积的计算方式,忽视了光流场景中像素位移相对较小的特性,因此引入了较多的误差信息。为解决这一问题,提出一种基于分区思想的强弱相关计算方法。

视觉相似度计算模块将图像划分为多个区域,以减少误匹配。设定像素位移的阈值,圈定两帧图像中的相关区域。在两个特征图像对中,相应区域的像素值表现出高度相关性,因此将相关因子设为1。对于非对应区域的像素,将根据像素间的距离自适应地确定相关因子。特征图相关性强弱见图3图3中,颜色深浅代表相关性强弱,颜色越深相关性越强;颜色越浅相关性越弱。该方法不仅获得了所有像素对的相关性,而且显著减少了区域外错误匹配造成的误差。相关体积为

C v = A = A 1 A 2 . . . A n , B = B 1 B 2 . . . B n C A B
I 1 = A 1,2 n r e g i o n A I 2 = B 1,2 n r e g i o n B
C A B = λ k r e g i o n A r e g i o n B B = J A

根据式(1)~式(3)可知,输入的特征图I 1I 2被分为2n个区域,AB分别为I 1I 2分区的区域索引, J ·为帧间各个区域间的映射关系; λ k为可学习的自适应相关因子,表示各区域间的相关性,采用ReLU激活函数将 λ k取值范围约束在0到1之间; r e g i o n ·为分区后的图像区域; 表示特征图之间对应区域像素的点积; C A B表示区域AB建立强弱关系后,它们之间的相关体积。

由式(1)~式(3)可计算出I 1中每个特征像素与I 2中所有特征像素的相关关系,即相关体积C v,维度为w×h×w×h,其中(w×h)=(W/8,H/8)。随后运用尺寸为1、2、4、8的四个不同卷积核,对相关体的后两个维度实施降采样处理。经过此步骤可获得四层金字塔结构 C v 1 , C v 2 , C v 3 , C v 4,即四维相关体。这种做法能够保存高分辨率的信息,更好地计算快速移动的小物体的运动。金字塔层标号k与其维度关系为

C v k h × w × ( h / 2 k ) × ( w / 2 k )

式(4)可知,相关金字塔的每一层均保持前两个维度不变,对后面的两个维度进行降采样,这种操作既可以保存图片高分辨率信息又可以完成小位移运动的追踪。

基于 C v 1 , C v 2 , C v 3 , C v 4定义查询操作,用于光流的迭代更新。设上一次迭代计算得到的在xy两个方向上的光流分别为( f 1, f 2),其中 f 为包含所有像素点的光流信息矩阵,通过( f 1, f 2)可得I 1图上像素点x=(u,v)在I 2上对应位置x',x'=(u+ f 1(u),v+f 2(v)),其中uv分别为每个像素点在xy两个方向上的坐标。x'邻域点集L(x') r

L x ' r = x ' + d x | d x Z 2 , d x r

式中:dx为整数;r为4像素的搜索半径。

将该邻域内的所有点视为I 1中像素xI 2上潜在位置。在进行光流的后续迭代计算时,若需获取像素点 x与其潜在位置的相关特征信息,可直接通过插值查询方式从相关金字塔 C v 1 , C v 2 , C v 3 , C v 4中提取相关数据,将来自不同金字塔层的查询结果在特征维度上进行整合,得到最终的相关体C final

1.3 迭代更新模块

基于视频帧间局部相关信息的光流估计网络,通过迭代更新模块中的光流序列{ f 1,…, f N }完成光流估计,其迭代更新过程可以描述为

f k + 1 = f k + Δ f k

式中:Δ f k 为每次迭代后的更新量; f k 为当前光流; f k +1为更新后的光流;k为迭代更新次数,最终输出光流序列{ f 1,…, f N }完成光流估计。

基准编码模块结构设计见图4,其输入由两部分组成:一是基于当前光流位移在相关金字塔中查询出的相关体C final;二是当前的光流位移值。

当前光流位移 f k 的处理,采用细粒度模块进行运算。此模块由3个并行的3×3卷积核组成。这3个并行的小卷积核不仅成功地解决了感受野过小的问题,而且在提高局部小运动特征关注度方面也取得了显著效果。具体处理方法为

F f l o w i = R e L U C o n v 3 × 3 f k , i = 1,2 , 3
F e x p o r t = c a t F f l o w 1 , F f l o w 2 , F f l o w 3

式中: F f l o w ii=1,2,3)为光流位移 f k 通过3个并行卷积核的不同输出通道处理得到的光流特征,通过拼接操作cat(·)进行合并,生成光流特征拼接后的结果F export。最后,通过ReLU激活函数进行处理。

经过卷积滤波器和一个3×3卷积操作,相关体C final已成功整合了不同相关金字塔层的关键信息。然而,基于卷积的基准编码模块在生成输出结果时过于平滑,影响了一些关键细节和特征的呈现。为了解决这个问题,引入残差连接的设计(如图4中绿色线所示),缓解小位移运动在卷积堆叠运算过程中难以维持局部精细特征的问题,并纠正局部小位移的运动。经过引入残差连接,输出的光流预测图在局部细节上得到了显著提升。改进后的卷积滤波器输出为

C e x p o r t = C f i n a l + C o n v 3 × 3 C o n v 3 × 3 F e x p o r t + C o n v 3 × 3 C o n v 1 × 1 C f i n a l

式中:Conv3×3 3 × 3卷积核;Conv1×1 1 × 1卷积核。

卷积滤波器的输出C export和当前光流位移 f k 在特征维度上进行拼接成为基准编码模块的输出L output。将L output编码后的特征I 3在特征维度合并作为ConvGRU的输入,完成光流的迭代更新。该方法能够精准捕捉到更细致的特征信息,使预测结果更加贴近实际光流情况,提升输出光流场的精确性与细致度。此外,鉴于特征提取阶段输出特征图的分辨率仅为原图的1/8,因而在迭代更新过程中生成的初始光流预测图亦维持这一较低分辨率。为获得与原图相匹配的高分辨率光流场景,采用上采样操作进行必要的处理。

1.4 算法伪代码描述

输入:连续两帧图像(image1, image2)

输出:光流场(flow_predictions)

步骤1 对每一对图像帧进行处理。

for frame1, frame2 in image_pairs:

# 使用特征提取模块提取图像帧的特征

features1 = feature_extraction(frame1)

features2 = feature_extraction(frame2)

# 对特征进行归一化处理normalize_features(features1)

normalize_features(features2)

步骤2 对图像进行分区处理(四分条为例)。

fmap1, fmap2, region1, region2, region3, region4 = self.fnet([image1, image2])

fmap1 = fmap1.float()

fmap2 = fmap2.float()

region1 = region1.float()

region2 = region2.float()

region3 = region3.float()

region4 = region4.float()

#计算视觉相似度构建4D相关体

corr_fn = CorrBlock(fmap1, fmap2,region1, region2, region3, region4,radius=self.args.corr_radius)

corr = CorrBlock.corr(fmap1, fmap2,region1, region2, region3, region4)

batch, h1, w1, dim, h2, w2 = corr.shape

corr = corr.reshape(batch*h1*w1, dim, h2, w2)

步骤3 更新光流。

# 初始化光流的坐标信息

coords0, coords1 = self.initialize_flow(image1)

if flow_init is not None:

coords1 = coords1 + flow_init

#进行光流更新迭代

flow_predictions = []

net, up_mask, delta_flow = self.update_block(net, inp, corr, flow)

#基准编码模块结构

self.encoder = BasicMotionEncoder(args)

self.gru = SepConvGRU(hidden_dim=hidden_dim, input_dim=128+hidden_dim)

self.flow_head = FlowHead(hidden_dim, hidden_dim=256)

coords1 = coords1 + delta_flow # 更新光流

#上采样

flow_up = self.upsample_flow(coords1 - coords0, up_mask)

#输出光流

return flow_predictions

2 实验分析

2.1 实验环境及参数设置

网络架构采取端到端的处理方式,对数据集实施标准的数据增强技术,包括随机噪声添加和随机翻转等操作,并通过单次训练流程完成样本集的构建。在实施环境方面,选择PyTorch框架与Adamw优化器相结合,设定Adamw优化器的参数wdecay为10-5。同时,采用NVIDIA 3090显卡作为计算资源,设置批量大小为5。在训练过程中,针对KITTI-2015数据集进行5×104轮的训练迭代,对MPI Sintel数据集则进行1.2×106轮的训练迭代。初始学习率设定为10-4,并每经过5 000轮训练后,学习率递减10-5

采用地面真实流与预测值之间的距离作为监督网络的依据,损失函数为

F L o s s = i = 1 k φ i - k F g - f i 1

式中:初始化光流 f 1 = 0 f i为光流序列,即{ f 1,…, f N}; F g 为地面真实流; φ为初始权重,取0.8;k为迭代次数,取12。

2.2 数据集

KITTI-2015数据集包含394组训练数据集和395组测试数据集。该数据集为真实的交通环境下的街景数据集。

MPI-Sintel光流数据集包含1 041组训练数据和552组测试数据,内容全面且丰富。该数据库被划分为Clean类和Final类。Clean类数据集针对大位移、弱纹理以及非刚性大形变等挑战性场景进行设计,主要目标在于测试算法在复杂多变环境下的性能表现。Final类数据集在Clean类数据集的基础上,通过融入运动模糊、雾化效果,以及图像噪声等多种元素,使数据集更加贴近真实世界的场景,从而更加客观地评估算法在实际应用中的表现。

2.3 评价指标

针对KITTI-2015数据集,采用端点误差(end-point-error,EPE)和光流异常值百分比(Fl)来评估光流估计的精准度。EPE通过计算所有像素点真实标签值与预测光流之间的平均欧氏距离,反映预测光流与真实光流之间的偏差程度。Fl为图像整体区域中光流误差大于3像素或超过5%的误差比率。

EPE可表示为

E P E = i = 1 n F i - F g i 2

式中: F i代表预测光流值; F g i代表地面真实值。

在MPI-Sintel数据集上,采用EPE以及1px、3px、5px作为评估指标。其中,1px指标统计EPE值小于1的像素占比,体现高精度层面光流估计的准确性;3px指标统计EPE值小于3的像素占比,从稍宽但合理的误差区间评估整体效果;5px指标统计EPE值小于5的像素占比,从更大误差容忍区间考查像素情况,帮助把握不同精度层次的表现。这些指标从不同误差范围维度考量MPI-Sintel数据集上的相关表现,为光流估计网络提供全面精确的性能评估依据。

2.4 实验结果对比

不同方法在KITTI-2015数据集、MPI-Sintel测试集上光流估计性能见表1表2,其中Ours(4)、Ours(6)、Ours(8)代表4分条区域、6分条区域以及8分条区域。

以RAFT[16]为例,EPE的降低比率为

η E P E = E P E R A F T - E P E O u r ( n ) E P E R A F T × 100 %

Fl的降低百分点为

P C T F l = ( F l R A F T - F l O u r ( n ) ) F l R A F T

式中: E P E R A F T为RAFT的EPE值; E P E O u r ( n )n分条时EPE数值; F l O u r ( n )n分条的Fl值,n取4,6,8; F l R A F T表示RAFT的Fl数值。

表1可见,在KITTI-2015测试集上,与VCN[12]方法相比,基于视频帧间局部相关信息的光流估计网络的EPE和F1分别降低了49.8%和0.31个百分点;与DICL[20]方法相比,基于视频帧间局部相关信息的光流估计网络的EPE和F1分别降低了46.3%和0.30个百分点;与RAFT[14]相比,EPE最多降低了8.0%,F1最多降低了0.15个百分点。

表2可见,在MPI-Sintel测试集上,通过式(13)式(14)计算可得基于视频帧间局部相关信息的光流估计网络。与VCN[12]相比,EPE最多降低了67.1%和29.7%;与DICL[20]相比EPE最多降低了13.9%和10.4%;与RAFT[14]比,EPE最多降低了5.7%和3.1%,1px最多提高了0.008 074和0.009 996,3px最多提高了0.009 137和0.003 029,5px最多提高了0.003 349和0.007 069。

基于视频帧间局部相关信息的光流估计网络在KITTI数据集和MPI-Sintel数据集上光流估计结果见图5

图5(a)展示了在KITTI-2015数据集上的光流预测结果,图中编号为4、6、8的区域分别代表的4分条区域、6分条区域以及8分条区域。由图5中的第一行图像可见,RAFT车身轮廓和背景分割不清晰,而基于视频帧间局部相关信息的光流估计网络将车身轮廓和背景较好地区分开,如图5中红框所示。此外,由图5(a)中的最后一行图像可见,RAFT构建的光流图中仅构建出栏杆的大致轮廓,而基于视频帧间局部相关信息的光流估计网络将栏杆的细节也大致展现出来。

图5(b)展示了在MPI-Sintel数据集上的光流预测结果。对于前两行展示的Clean类数据,可观察到基于视频帧间局部相关信息的光流估计网络在物体轮廓和边缘细节的处理上,显著超越了RAFT方法。特别是在第一行中,RAFT未能成功捕捉蝴蝶的光流信息,而基于视频帧间局部相关信息的光流估计网络则能准确、清晰地展现蝴蝶的光流动态。

图5(b)后两行所展示的Final类数据预测结果,即使面对含有运动模糊的挑战性场景,依然展现出了强大的预测能力。腿部边缘的光流信息得到了完整且准确的预测,进一步验证了基于视频帧间局部相关信息的光流估计网络在复杂场景下的稳定性和有效性。

2.5 消融实验

为了验证分区强弱相关计算、相似卷积块以及残差滤波器的有效性,在MPI-Sintel数据集和KITTI-2015数据集上进行消融实验。在实验过程中,确保所有不同的方法组合都采用了相同的训练参数设置和训练轮数,以保证实验结果的公正性和准确性。在分区强弱相关计算的实验中,尝试了4、6、8三种不同的分区策略,并仅在消融实验中展示了表现最优的策略。其中:A代表相似卷积块,B代表残差滤波器,C代表分区强弱相关计算。消融实验结果见表3

表3可知,相似卷积块与残差滤波器的结合,在光流预测任务中展现出卓越的性能,特别是在处理局部小物体时表现尤为出色。在此基础上,通过引入强弱相关计算,不仅显著降低了端点误差,还进一步提升了各项评估指标。综上所述,只有将3种方法有机结合,才能充分发挥网络性能,验证了基于视频帧间局部相关信息的光流估计网络的有效性和优越性。

消融实验对比结果见图6。如图6可见,使用相似卷积块和残差滤波器的组合(AB)在识别车轮局部方面效果最佳;相似卷积块和分区强弱相关计算的组合(AC)能够准确识别车身的大体轮廓,但在车轮部分表现略显不足;而残差滤波器和分区强弱相关的组合(BC)在车轮局部细节方面表现较好,但对车尾部分的识别较粗糙。只有在本文提出分区思想的强弱相关计算方法、残差滤波器和相似卷积块共同作用下,才能更好地完成光流图的构建。

3 结论

(1)本文基于视频帧间局部相关信息提出一种光流估计网络,该网络通过分区计算视觉相似度方法,剔除大量误差信息,利用残差滤波器和相似卷积块保留局部微小位移信息,解决光流结果缺乏局部细粒度的问题。

(2)与VCN、DICL、RAFT等传统方法相比,基于视频帧间局部相关信息的光流估计网络在KITTI-2015和MPI-Sintel数据集上表现出显著优势,提高了光流估计网络的准确率。

(3)后续研究可着重从如何降低网络运行时间成本和参数量,提升复杂场景下的光流信息提取准确率,拓展其在自动驾驶、智能安防等领域的应用前景等方面展开。

参考文献

[1]

焦红虹,周浩,方淇.基于光流场的时间分段网络行为识别[J].云南大学学报(自然科学版),2019,41(1):36-45.

[2]

JIAO Honghong, ZHOU Hao, FANG Qi.The Temporal Segment Network based optical flow for action recognition[J].Journal of Yunnan University(Natural Sciences Edition),2019,41(1):36-45.

[3]

杨华,王姣,张维君 基于光流估计的轻量级视频插帧算法[J].沈阳航空航天大学学报,2022,39(6):57-64.

[4]

YANG Hua, WANG Jiao, ZHANG Weijun,et al.Lightweight video frame interpolation algorithm based on optical flow estimation[J].Journal of Shenyang Aerospace University,2022,39(6):57-64.

[5]

李志慧,胡永利,赵永华,基于车载的运动行人区域估计方法[J].吉林大学学报(工学版),2018,48(3):694-703.

[6]

LI Zhihui, HU Yongli, ZHAO Yonghua,et al.Locating moving pedestrian from running vehicle[J]. Journal of Jilin University (Engineering and Technology Edition),2018,48(3):694-703.

[7]

HORN B K P, SCHUNCK B G.Determining optical flow[J].Artificial Intelligence,1981,17(1/2/3):185-203.

[8]

BLACK M J, ANANDAN P.A framework for the robust estimation of optical flow[C]//1993(4th) International Conference on Computer Vision.May 11-14,1993,Berlin,Germany.IEEE,1993:231-236.

[9]

ZACH C, POCK T, BISCHOF H.A duality based approach for realtime TV-L1 optical flow[C]//Pattern Recognition.Berlin,Heidelberg:Springer Berlin Heidelberg,2007:214-223.

[10]

WEINZAEPFEL P, REVAUD J, HARCHAOUI Z,et al.DeepFlow:large displacement optical flow with deep matching[C]//2013 IEEE International Conference on Computer Vision.December 1-8,2013, Sydney,NSW,Australia.IEEE,2013:1385-1392.

[11]

SIMONYAN K, ZISSERMAN A, SIMONYAN K,et al.Two-stream convolutional networks for action recognition in videos[C]//Proceedings of the 28th International Conference on Neural Information Processing Systems-Volume 1.December 8-13,2014,Montreal,Canada.ACM,2014: 568-576.

[12]

ILG E, MAYER N, SAIKIA T,et al.FlowNet 2.0:evolution of optical flow estimation with deep networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition.July 21-26,2017,Honolulu,HI,USA. IEEE,2017:1647-1655.

[13]

RANJAN A, BLACK M J.Optical flow estimation using a spatial pyramid network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition.July 21-26,2017,Honolulu,HI,USA.IEEE,2017: 2720-2729.

[14]

SUN D Q, YANG X D, LIU M Y,et al.PWC-net:cnns for optical flow using pyramid,warping,and cost volume[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:8934-8943.

[15]

YANG G, RAMANAN D.Volumetric Correspondence Networks for Optical Flow[C]//Annual Conference on Neural Information Processing Systems,December 2019.Vancouver,BC,Canada:NeurIPS,2019:793-803.

[16]

HUI T W, TANG X O, LOY C C.LiteFlowNet:a lightweight convolutional neural network for optical flow estimation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:8981-8989.

[17]

TEED Z, DENG J.RAFT:recurrent all-pairs field transforms for optical flow[C]//Computer Vision-ECCV 2020.Cham:Springer International Publishing,2020:402-419.

[18]

GEIGER A, LENZ P, STILLER C,et al.Vision meets robotics:The KITTI dataset[J].International Journal of Robotics Research,2013,32 (11):1231-1237.

[19]

BUTLER D J, WULFF J, STANLEY G B,et al.A naturalistic open source movie for optical flow evaluation[C]//Computer Vision-ECCV 2012.Berlin,Heidelberg:Springer Berlin Heidelberg,2012:611-625.

[20]

张水发,张文生,丁欢,融合光流速度与背景建模的目标检测方法[J].中国图象图形学报,2011,16(2):236-243.

[21]

ZHANG Shuifa, ZHANG Wensheng, DING Huan,et al.Background modeling and object detecting based on optical flow velocity field[J].Journal of Image and Graphics,2011,16(2):236-243.

[22]

许广富,曾继超,刘锡祥.融合光流法和特征匹配的视觉里程计[J].激光与光电子学进展,2020,57(20):270-278.

[23]

XU Guangfu, ZENG Jichao, LIU Xixiang.Visual odometer based on optical flow method and feature matching[J].Laser & Optoelectronics Progress,2020,57(20):270-278.

[24]

安峰,戴军,韩振,引入注意力机制的自监督光流计算[J].图学学报,2022,43(5):841-848.

[25]

AN Feng, DAI Jun, HAN Zhen,et al.Self-supervised optical flow estimation with attention module[J].Journal of Graphics,2022,43(5):841-848.

[26]

WANG J Y, ZHONG Y R, DAI Y C,et al.Displacement-invariant matching cost learning for accurate optical flow estimation[EB/OL].(2020-10-28)[2023-11-17].

基金资助

国家自然科学基金项目(61601213)

PDF (1443KB)

273

访问

0

被引

详细

导航
相关文章

AI思维导图

/